国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

科學家警告:如果超級智能機器要傷害人類,拔插頭也無法阻止

2021-01-16 22:44 作者:南方都市報  | 我要投稿

“人工智能(AI)叛亂”聽起來像是科幻電影的情節(jié),但這個概念是一項新研究課題。一個國際科研團隊設(shè)計了一種理論上的“遏制算法”,通過模擬AI,確保其在任何情況都不能傷害人類,但結(jié)果發(fā)現(xiàn)無法做到。

AI多年來一直讓人類著迷,我們對控制汽車、譜寫交響樂或在自己的游戲中擊敗世界上最好棋手的機器感到敬畏。然而,巨大的力量伴隨著巨大的責任,全世界的科學家都在擔心超級智能系統(tǒng)可能帶來的危險。

一個國際團隊研究表明,控制一個超級人工智能是不可能的。

據(jù)報道,包括馬克斯·普朗克人類發(fā)展研究所人類與機器中心的科學家在內(nèi)的一個國際團隊研究表明,控制一個超級人工智能是不可能的。

該團隊在分析過程中使用了阿蘭·圖靈(Alan Turning)于1936年提出的“停止”問題,該問題的重點在于計算機程序是否會得出結(jié)論并做出“停頓”的反應(yīng)。

據(jù)悉,在研究中,該團隊設(shè)計了一種理論上的“遏制算法”,通過先模擬人工智能的行為,如果認為有害,則停止人工智能的行為,從而確保超級人工智能在任何情況下都不能傷害人類。

但仔細分析后發(fā)現(xiàn),在目前的計算模式下,這樣的算法是無法建立的。

也就是說,目前的算法并不具備阻止人工智能的能力,因為命令A(yù)I不要毀滅世界,會在無意中阻止“遏制算法”自身的運行。

人類與機器中心主任伊亞德·拉赫萬表示,如果發(fā)生這種情況,將不知道“遏制算法”是否還在分析威脅,或者它是否已經(jīng)停止遏制有害的AI。

基于這些計算結(jié)果,“遏制問題”是無法計算的,沒有一種算法可以找到判斷人工智能是否會對世界產(chǎn)生危害的解決方案。

研究結(jié)果還證明,我們甚至可能不知道超級智能機器何時到來,因為決定一臺機器是否表現(xiàn)出優(yōu)于人類的智能與“遏制問題”屬于同一領(lǐng)域。

國際科研團隊的論文警告說,如果一臺超級智能機器想要控制世界,傷害人類,拔掉插頭也無濟于事。


科學家警告:如果超級智能機器要傷害人類,拔插頭也無法阻止的評論 (共 條)

分享到微博請遵守國家法律
珠海市| 牙克石市| 太和县| 黑山县| 长治市| 兴和县| 扎赉特旗| 林甸县| 涡阳县| 奉化市| 长岭县| 石首市| 开封县| 青阳县| 晋城| 西和县| 松潘县| 丹棱县| 茌平县| 武平县| 博客| 沙坪坝区| 都昌县| 闻喜县| 龙陵县| 无为县| 黔西县| 永定县| 容城县| 嘉禾县| 巴彦淖尔市| 兖州市| 左云县| 长寿区| 汶川县| 都江堰市| 洞头县| 阿城市| 台江县| 古交市| 绍兴县|