IT之家 4 月 1 日消息,埃隆·馬斯克 (Elon Musk) 在早些時候舉辦的 Abundance 峰會 “人工智能辯論” 研討會上表示,即使人工智能技術(shù)有 1/5 的可能性會對人類構(gòu)成威脅,但其利大于弊,我們?nèi)匀恢档妹半U進(jìn)行研發(fā)。
馬斯克重新評估了之前他對人工智能的風(fēng)險評估,他在研討會上表示:“我認(rèn)為人工智能有可能終結(jié)人類文明。我可能同意 Geoffrey Hinton 的觀點,這個概率大約是 10% 到 20% 左右。”但他補充說:“我認(rèn)為積極的可能性場景要大于消極的可能性場景。”馬斯克并沒有提到他是如何計算該風(fēng)險的。
IT之家注意到,去年 11 月,馬斯克表示這項技術(shù)失控的可能性 “并非零”,但當(dāng)時他并未斷言失控的人工智能會毀滅人類。
盡管馬斯克一直倡導(dǎo)監(jiān)管人工智能,但去年他創(chuàng)辦了一家名為 xAI 的公司,致力于進(jìn)一步拓展人工智能的強大功能。xAI 是 OpenAI 的競爭對手,OpenAI 是馬斯克與薩姆·阿爾特曼 (Sam Altman) 共同創(chuàng)立的公司,但馬斯克在 2018 年辭去了 OpenAI 董事會職務(wù)。
在峰會上,馬斯克估計到 2030 年,數(shù)字智能將超過所有人類智能的總和。雖然他仍然堅持潛在的正面影響大于負(fù)面影響,但馬斯克用他在公開場合使用過的一些最直接的措辭承認(rèn)了人工智能繼續(xù)按當(dāng)前軌跡發(fā)展將給世界帶來的風(fēng)險。
“你培育了一個人工智能,這幾乎就像養(yǎng)一個孩子,但它卻是一個超級天才,一個神一般的孩子 教養(yǎng)它的方式至關(guān)重要,” 馬斯克在 3 月 19 日的硅谷活動上談到人工通用智能時說道,“我認(rèn)為對人工智能安全來說非常重要的一點是,讓它盡可能地追求真理和保持好奇心。”
馬斯克表示,他關(guān)于實現(xiàn)人工智能安全最佳方式的“最終結(jié)論”是讓人工智能以一種迫使其誠實的方式成長。
“不要強迫它撒謊,即使真相令人不快,” 馬斯克談到讓人工智能安全的方式時說道, “這非常重要。不要讓它撒謊。”
據(jù)《獨立報》報道,研究人員發(fā)現(xiàn),一旦人工智能學(xué)會對人類撒謊,就無法使用當(dāng)前的人工智能安全措施來扭轉(zhuǎn)這種欺騙行為。更令人不安的是,研究人員還補充說,人工智能有可能學(xué)會自己欺騙,而不是被特意教導(dǎo)撒謊。