圖片來(lái)源:Mert Alper DervisAnadolu/Getty Images
杰弗里辛頓本身就是一個(gè)行走的悖論他是某類(lèi)杰出科學(xué)家的典型代表。周二,辛頓的聲譽(yù)更上一層樓。他和美國(guó)科學(xué)家約翰霍普菲爾德因?yàn)榘l(fā)現(xiàn)了實(shí)現(xiàn)現(xiàn)代人工智能突破的神經(jīng)網(wǎng)絡(luò)和計(jì)算機(jī)路徑,共同獲得了諾貝爾物理學(xué)獎(jiǎng)。然而,最近幾年,辛頓卻陷入了矛盾的境地:這個(gè)讓他贏得贊譽(yù)的發(fā)現(xiàn),現(xiàn)在卻成為無(wú)盡擔(dān)憂(yōu)的來(lái)源。在過(guò)去的一年里,被譽(yù)為“人工智能教父”的辛頓,一再?gòu)?qiáng)烈警告他的發(fā)現(xiàn)所帶來(lái)的技術(shù)可能導(dǎo)致的危險(xiǎn)。辛頓既像是神話里的普羅米修斯,又像是先知卡珊德拉,他與許多傳奇科學(xué)家一樣,一方面是人類(lèi)對(duì)功成名就的愿望,另一方面是反思行動(dòng)后果的人文沖動(dòng)。J羅伯特奧本海默和艾伯特愛(ài)因斯坦都曾因?yàn)樗麄兊脑友芯克斐傻臍缍萑胪纯唷Uㄋ幍陌l(fā)明者阿爾弗雷德諾貝爾對(duì)他的遺產(chǎn)可能造成的影響深感不安,因此他創(chuàng)立了一個(gè)基金會(huì),用于頒發(fā)以他的名字命名的獎(jiǎng)項(xiàng),也就是辛頓獲得的諾貝爾獎(jiǎng)。辛頓在2023年接受《60分鐘》(60 Minutes)采訪時(shí)表示:“我看不到一條保證安全的路徑。我們正在進(jìn)入一個(gè)充滿(mǎn)不確定性的時(shí)期。我們要面對(duì)的是以前從未處理過(guò)的事情。”辛頓認(rèn)為,人類(lèi)對(duì)人工智能知之甚少,這非?膳,而且機(jī)器可能比人類(lèi)更聰明,他的擔(dān)憂(yōu)大多源于此。他在接受NPR采訪時(shí)表示:“機(jī)器可能變得比人類(lèi)更聰明,并且可能決定接管這個(gè)世界,現(xiàn)在我們需要擔(dān)心的是如何阻止這種情況發(fā)生。”辛頓原籍英格蘭,他的大部分職業(yè)生涯都在美國(guó)和加拿大度過(guò)。在多倫多大學(xué)(University of Toronto),他取得了一項(xiàng)重大突破,后來(lái)這成為當(dāng)代人工智能許多應(yīng)用的智能基矗2012年,辛頓和兩名研究生(其中之一是OpenAI前首席科學(xué)家伊利亞蘇特斯威夫)建立了一個(gè)可從圖片中識(shí)別出基本物體的神經(jīng)網(wǎng)絡(luò)。最終,谷歌(Google)以4,400萬(wàn)美元,收購(gòu)了辛頓基于這項(xiàng)技術(shù)創(chuàng)建的一家公司。之后,辛頓為谷歌工作了10年,2023年退休后,他擺脫了任何公司約束,從而可以公開(kāi)警告人工智能的風(fēng)險(xiǎn)。(辛頓并未回應(yīng)置評(píng)請(qǐng)求。)辛頓對(duì)人工智能的進(jìn)步速度感到擔(dān)憂(yōu)。他在去年接受《紐約時(shí)報(bào)》采訪時(shí)表示:“看看五年前的情況,再看看現(xiàn)在。對(duì)比一下前后差異,并請(qǐng)對(duì)外宣傳。這太可怕了。”辛頓表示,人工智能模型有可能相互傳播只有一個(gè)模型可能已經(jīng)學(xué)會(huì)的新信息,而且效率遠(yuǎn)高于人類(lèi),這令他深感擔(dān)憂(yōu)。他在2023年表示:“只要有一個(gè)[模型]學(xué)到了任何信息,其他模型就會(huì)知道。這是人類(lèi)所做不到的。如果我學(xué)到許多關(guān)于量子力學(xué)的知識(shí),我希望讓你也學(xué)會(huì)這些知識(shí),我要經(jīng)過(guò)一個(gè)漫長(zhǎng)痛苦的過(guò)程才能讓你理解它。”辛頓的一些觀點(diǎn)頗具爭(zhēng)議,例如他認(rèn)為人工智能實(shí)際上可以“理解”自己的言行。如果這是真的,這可能會(huì)顛覆人們對(duì)于人工智能的許多傳統(tǒng)認(rèn)識(shí)。目前人們的共識(shí)是,人工智能系統(tǒng)不一定知道它們?yōu)槭裁磿?huì)做它們正在做的事情,而是經(jīng)過(guò)編程,根據(jù)給出的提示輸出特定的結(jié)果。辛頓在一份公開(kāi)聲明中謹(jǐn)慎地表示,人工智能并不像人類(lèi)那樣具有自主意識(shí)。相反,人工智能系統(tǒng)學(xué)習(xí)、改進(jìn)和最終生成特定結(jié)果的機(jī)制,意味著它們必須理解正在學(xué)習(xí)的內(nèi)容。據(jù)《連線》雜志報(bào)道,辛頓之所以發(fā)出警告,是因?yàn)樗笠粋(gè)聊天機(jī)器人準(zhǔn)確地解釋為什么他杜撰的一個(gè)笑話是好笑的。這個(gè)聊天機(jī)器人能夠理解幽默的微妙之處,然后用自己的語(yǔ)言清楚地表達(dá)出來(lái),這讓辛頓深受啟發(fā)。隨著人類(lèi)朝著幾乎無(wú)人理解的終點(diǎn)線沖刺,辛頓擔(dān)心,人類(lèi)可能無(wú)法掌控人工智能。他設(shè)想了一種情況,即人工智能系統(tǒng)能夠編寫(xiě)代碼修改自己的學(xué)習(xí)協(xié)議,并躲過(guò)人類(lèi)的監(jiān)控。就像莎士比亞戲劇里跌宕起伏的情節(jié)一樣,它們將從人類(lèi)自身的弱點(diǎn)中,學(xué)會(huì)如何這樣做。辛頓在2023年10月接受《60分鐘》采訪時(shí)表示:“它們將能夠操縱人類(lèi)。它們將變得非常善于說(shuō)服人類(lèi),因?yàn)樗鼈儗娜祟?lèi)寫(xiě)的所有小說(shuō)、馬基雅維利的所有書(shū)籍和各種政治陰謀中學(xué)習(xí),它們將變得無(wú)所不通。”(財(cái)富中文網(wǎng))譯者:劉進(jìn)龍審校:汪皓在財(cái)富Plus,網(wǎng)友們對(duì)這篇文章發(fā)表了許多有深度和思想的觀點(diǎn)。一起來(lái)看看吧。也歡迎你加入我們,談?wù)勀愕南敕ā=袢掌渌麩嶙h話題:
推薦閱讀