嘉賓|尤瓦爾赫拉利 歷史學(xué)家、哲學(xué)家,《智人之上》、“人類(lèi)簡(jiǎn)史”三部曲等書(shū)作者十二年前,《人類(lèi)簡(jiǎn)史:從動(dòng)物到上帝》一書(shū)出版,立刻風(fēng)行全球,暢銷(xiāo)多年。十二年后,尤瓦爾赫拉利攜著新書(shū)《智人之上》前來(lái),這一次,他要探討和思考的,是這個(gè)被算法和平臺(tái)裹挾,被人工智能隱隱威脅到的、全新的大變局時(shí)代,這個(gè)時(shí)代背后的歷史邏輯,以及最終人類(lèi)社會(huì)將走向何處。近日,鳳凰網(wǎng)財(cái)經(jīng)《封面》與尤瓦爾赫拉利展開(kāi)了一場(chǎng)深度采訪,圍繞人工智能會(huì)不會(huì)最終顛覆人類(lèi)的碳基世界,算法和信息繭房對(duì)人類(lèi)社會(huì)的隔絕危害等展開(kāi)了問(wèn)答。
信息大爆炸時(shí)代 我們需要信息節(jié)食
尤瓦爾赫拉利指出,在過(guò)去信息是稀缺的,所以我們接受我們能得到的任何信息,F(xiàn)在我們被太多的信息淹沒(méi)了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態(tài)。尤瓦爾赫拉利表示,為了保護(hù)我們的心理和社會(huì)健康,我們需要進(jìn)行一種信息節(jié)食,類(lèi)似于許多人所做的飲食上的節(jié)制。信息節(jié)食的第一步是限制我們/接受的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進(jìn)行信息齋戒也是有益的。尤瓦爾赫拉利透露,他個(gè)人“每年都會(huì)進(jìn)行幾周的冥想靜修,我練習(xí)內(nèi)觀禪修,在禪修期間,我完全斷開(kāi)了和外界的聯(lián)系。我不看新聞,不讀電子郵件,不讀書(shū)也不寫(xiě)書(shū)我只冥想。我花時(shí)間消化我頭腦中已經(jīng)包含的東西,而不是往里面塞更多的信息。”
我們正在失去就任何事情達(dá)成一致的能力
尤瓦爾赫拉利指出,最初信息技術(shù)將人類(lèi)連接在一起,但現(xiàn)在信息大爆炸以后,信息技術(shù)開(kāi)始使人類(lèi)分裂,使人與人疏遠(yuǎn)。我們擁有歷史上最先進(jìn)的信息技術(shù),但我們正在失去就任何事情達(dá)成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒(méi),因此他們與現(xiàn)實(shí)脫節(jié)。在互聯(lián)網(wǎng)的早期,占主導(dǎo)地位的比喻是“網(wǎng)絡(luò)”將所有人聯(lián)系在一起的東西。但現(xiàn)在看來(lái),一個(gè)更好的比喻是繭房。人們被封閉在單獨(dú)的信息繭房中,無(wú)法與繭房外的人交流。
尤瓦爾赫拉利呼吁,為了打破繭房,保持人類(lèi)團(tuán)結(jié),我們需要寄希望于強(qiáng)大的自我糾正機(jī)制。這些是識(shí)別、承認(rèn)和糾正錯(cuò)誤的機(jī)制。
人工智能比核武器更危險(xiǎn)嗎?尤瓦爾:我更擔(dān)心另一種情況
針對(duì)人工是否比核武器更危險(xiǎn)的問(wèn)題,尤瓦爾赫拉利表示,核武器的風(fēng)險(xiǎn)從一開(kāi)始就顯而易見(jiàn)。只有一種非常危險(xiǎn)的情況核戰(zhàn)爭(zhēng),每個(gè)人都能輕易想象。有了人工智能,一些危險(xiǎn)的場(chǎng)景也很容易想象。例如,如果某個(gè)暴君讓人工智能控制其國(guó)家的核武器,然后人工智能犯了一個(gè)災(zāi)難性的錯(cuò)誤,會(huì)發(fā)生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發(fā)一場(chǎng)大流行/瘟疫,會(huì)發(fā)生什么?然而,人工智能也存在許多難以想象和預(yù)測(cè)的危險(xiǎn)場(chǎng)景。產(chǎn)生這種威脅是人工智能的本質(zhì),因?yàn)槿斯ぶ悄苡心芰ψ约鹤鰶Q定,自己發(fā)明新想法。最初的確是人類(lèi)工程師設(shè)計(jì)了人工智能,但人工智能可以自己學(xué)習(xí)和改變,并開(kāi)始做人類(lèi)工程師沒(méi)有預(yù)料到的事情。如果一個(gè)計(jì)算機(jī)程序不能自己學(xué)習(xí)和改變,它就不是人工智能。尤瓦爾赫拉利指出,當(dāng)數(shù)以百萬(wàn)計(jì)的非人類(lèi)代理人開(kāi)始做與我們相關(guān)的決定,并創(chuàng)造新事物從新藥到新武器,從新藝術(shù)品到新貨幣我們的社會(huì)將會(huì)發(fā)生什么?我不害怕科幻小說(shuō)中的場(chǎng)景,比如一臺(tái)電腦決定殺死所有的人類(lèi)并接管世界。這是極不可能的。相反,我擔(dān)心的是由數(shù)百萬(wàn)人工智能管理的新帝國(guó)的崛起,它們將能夠消滅隱私,隨時(shí)監(jiān)控每個(gè)人,并為了一小部分精英的利益而剝削大部分人。
糟糕的算法應(yīng)該受到相應(yīng)的監(jiān)管
尤瓦爾赫拉利指出:“糟糕的算法對(duì)人類(lèi)的危害可能與有毒食品、劣質(zhì)藥品和不安全的汽車(chē)一樣,它們應(yīng)該受到相應(yīng)的監(jiān)管。”
他以汽車(chē)工業(yè)為例,當(dāng)汽車(chē)公司決定生產(chǎn)一種新車(chē)型時(shí),他們?cè)诎踩矫嫱度肓祟A(yù)算的很大一部分。他們確保剎車(chē)和安全帶正常工作,確保汽車(chē)在潮濕的道路上不會(huì)打滑,如果發(fā)生事故,汽車(chē)會(huì)保護(hù)乘客,不會(huì)輕易爆炸。如果汽車(chē)公司忽視了安全問(wèn)題,消費(fèi)者可以起訴它,要求賠償損失,政府可以阻止它銷(xiāo)售不安全的汽車(chē)。政府甚至還可以監(jiān)管安全的汽車(chē)。有許多法律限制汽車(chē)的行駛區(qū)域和速度。尤瓦爾赫拉利表示,同樣的標(biāo)準(zhǔn)也應(yīng)該適用于算法。當(dāng)一個(gè)公司生產(chǎn)出一個(gè)強(qiáng)大的新算法時(shí),也許所有研究預(yù)算的20%必須用于確保該算法不會(huì)對(duì)人們?cè)斐扇魏紊鐣?huì)或心理傷害。政府應(yīng)該規(guī)范如何使用安全的算法。目前的情況是,公司在沒(méi)有任何安全檢查和規(guī)定的情況下向公眾領(lǐng)域發(fā)布他們喜歡的任何算法,這是不可接受的。1、在信息爆炸的時(shí)代,問(wèn)題不是信息太少,而是信息太多。有時(shí),人們可能會(huì)感到焦慮。信息過(guò)載對(duì)人類(lèi)到底意味著什么?為了理解信息爆炸,讓我們把它比作食物。100年前食物匱乏,人類(lèi)吃他們能找到的任何東西,特別喜歡含有大量脂肪和糖的食物。今天食物豐富,我們被人工制造的高脂肪和高糖的垃圾食品淹沒(méi)了。如果人們繼續(xù)吃他們找到的所有食物,特別是垃圾食品,他們就會(huì)生玻信息也是如此,它是心智的食物。在過(guò)去信息是稀缺的,所以我們接受我們能得到的任何信息,F(xiàn)在我們被太多的信息淹沒(méi)了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態(tài)。為了保護(hù)我們的心理和社會(huì)健康,我們需要進(jìn)行一種信息節(jié)食,類(lèi)似于許多人所做的飲食上的節(jié)制。信息節(jié)食的第一步是限制我們消耗的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進(jìn)行信息齋戒也是有益的。我個(gè)人每年都會(huì)進(jìn)行幾周的冥想靜修,我練習(xí)內(nèi)觀禪修,在禪修期間,我完全斷開(kāi)了和外界的聯(lián)系。我不看新聞,不讀電子郵件,不讀書(shū)也不寫(xiě)書(shū)我只冥想。我花時(shí)間消化我頭腦中已經(jīng)包含的東西,而不是往里面塞更多的信息。幾個(gè)星期對(duì)大多數(shù)人來(lái)說(shuō)都太久了。但偶爾一兩天的信息輕斷食可能對(duì)每個(gè)人都有好處。你不需要去靜修,在遠(yuǎn)足時(shí),把你的智能手機(jī)關(guān)機(jī)也會(huì)很好。2、此外,在這個(gè)信息爆炸的時(shí)代,“信息繭房”的概念變得更加突出。我們?nèi)绾谓鉀Q這個(gè)問(wèn)題?有人認(rèn)為,“信息繭房”將在未來(lái)把人類(lèi)帶回部落時(shí)代,每個(gè)部落的思維方式都大不相同。你認(rèn)為地球村會(huì)分裂成獨(dú)立的部落嗎?在遙遠(yuǎn)的過(guò)去,世界上不同地區(qū)的人類(lèi)幾乎沒(méi)有聯(lián)系,因此他們持有非常不同的觀點(diǎn)。在現(xiàn)代,信息技術(shù)將人們聯(lián)系在一起,世界各地的人們開(kāi)始接受某些科學(xué)事實(shí),例如物質(zhì)是由原子組成的,微小的細(xì)菌會(huì)導(dǎo)致疾病,人類(lèi)是從猿類(lèi)進(jìn)化而來(lái)的。但是現(xiàn)在信息技術(shù)開(kāi)始使人類(lèi)分裂,使人與人疏遠(yuǎn)。我們擁有歷史上最先進(jìn)的信息技術(shù),但我們正在失去就任何事情達(dá)成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒(méi),因此他們與現(xiàn)實(shí)脫節(jié)。在互聯(lián)網(wǎng)的早期,占主導(dǎo)地位的比喻是“網(wǎng)絡(luò)”將所有人聯(lián)系在一起的東西。但現(xiàn)在看來(lái),一個(gè)更好的比喻是繭房。人們被封閉在單獨(dú)的信息繭房中,無(wú)法與繭房外的人交流。為了打破繭房,保持人類(lèi)團(tuán)結(jié),我們需要寄希望于強(qiáng)大的自我糾正機(jī)制。這些是識(shí)別、承認(rèn)和糾正錯(cuò)誤的機(jī)制。這種機(jī)制在自然界中很常見(jiàn)。孩子學(xué)會(huì)走路要?dú)w功于生物的自我糾正機(jī)制。你邁出一步,跌倒,試著用不同的方式,再跌倒,再糾正自己,直到你走對(duì)了。如果你只是編造借口,責(zé)怪別人,你永遠(yuǎn)學(xué)不會(huì)走路?茖W(xué)也是如此。我們提出了一個(gè)模型,它不太好用,我們承認(rèn)錯(cuò)誤,我們修改模型。在政治上也是如此,好的政府會(huì)承認(rèn)錯(cuò)誤并相應(yīng)地改變政策。相反,暴君、宗教狂熱者和陰謀論者從不承認(rèn)任何錯(cuò)誤。如果現(xiàn)實(shí)中的某些事情與他們所說(shuō)的不相符,他們就會(huì)編造一些謊言來(lái)解釋。因此,他們永遠(yuǎn)學(xué)不會(huì),也不應(yīng)該被信任。如果有人拒絕承認(rèn)錯(cuò)誤,永遠(yuǎn)不要相信他們。如果有人承認(rèn)自己的錯(cuò)誤他們是一個(gè)很好的知識(shí)來(lái)源。3、2023年,埃隆馬斯克在人工智能安全峰會(huì)上表示,“人工智能可能比核武器更危險(xiǎn)。在人類(lèi)歷史上,我們第一次有了比我們聰明得多的東西。我不清楚我們是否能控制這樣的事情。”我注意到您在書(shū)中也批評(píng)了對(duì)于信息的幼稚觀點(diǎn),你們的觀點(diǎn)似乎是一致的。我們是否低估了人工智能的風(fēng)險(xiǎn)?讓我們將人工智能與核武器進(jìn)行比較。核武器的風(fēng)險(xiǎn)從一開(kāi)始就顯而易見(jiàn)。只有一種非常危險(xiǎn)的情況核戰(zhàn)爭(zhēng),每個(gè)人都能輕易想象。有了人工智能,一些危險(xiǎn)的場(chǎng)景也很容易想象。例如,如果某個(gè)暴君讓人工智能控制其國(guó)家的核武器,然后人工智能犯了一個(gè)災(zāi)難性的錯(cuò)誤,會(huì)發(fā)生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發(fā)一場(chǎng)大流行/瘟疫,會(huì)發(fā)生什么?然而,人工智能也存在許多難以想象和預(yù)測(cè)的危險(xiǎn)場(chǎng)景。產(chǎn)生這種威脅是人工智能的本質(zhì),因?yàn)槿斯ぶ悄苡心芰ψ约鹤鰶Q定,自己發(fā)明新想法。最初的確是人類(lèi)工程師設(shè)計(jì)了人工智能,但人工智能可以自己學(xué)習(xí)和改變,并開(kāi)始做人類(lèi)工程師沒(méi)有預(yù)料到的事情。如果一個(gè)計(jì)算機(jī)程序不能自己學(xué)習(xí)和改變,它就不是人工智能。當(dāng)數(shù)以百萬(wàn)計(jì)的非人類(lèi)代理人開(kāi)始做與我們有關(guān)的決定,并創(chuàng)造新事物從新藥到新武器,從新藝術(shù)品到新貨幣我們的社會(huì)將會(huì)發(fā)生什么?我不害怕科幻小說(shuō)中的場(chǎng)景,比如一臺(tái)電腦決定殺死所有的人類(lèi)并接管世界。這是極不可能的。相反,我擔(dān)心的是由數(shù)百萬(wàn)人工智能管理的新帝國(guó)的崛起,它們將能夠消滅隱私,隨時(shí)監(jiān)控每個(gè)人,并為了一小部分精英的利益而剝削大部分人。4. 我們?nèi)绾未_保技術(shù)堅(jiān)持造福人類(lèi)的原則??jī)H僅依靠企業(yè)自我監(jiān)管似乎很困難,但完全依靠政府似乎也很有挑戰(zhàn)性。這是否意味著全球治理模式需要進(jìn)行重大調(diào)整?人工智能是一個(gè)新的挑戰(zhàn)。我們不能確定什么是監(jiān)管它的最佳方式。因此,我們應(yīng)該試驗(yàn)不同的方法。然而,最重要的是接受一些監(jiān)管的迫切需要。我們對(duì)幾乎所有其他產(chǎn)品和行業(yè)都有規(guī)定食品、醫(yī)藥和汽車(chē)。糟糕的算法對(duì)人類(lèi)的危害可能與有毒食品、劣質(zhì)藥品和不安全的汽車(chē)一樣,它們應(yīng)該受到相應(yīng)的監(jiān)管。一個(gè)很好的比較是汽車(chē)工業(yè)。當(dāng)汽車(chē)公司決定生產(chǎn)一種新車(chē)型時(shí),他們?cè)诎踩矫嫱度肓祟A(yù)算的很大一部分。他們確保剎車(chē)和安全帶正常工作,確保汽車(chē)在潮濕的道路上不會(huì)打滑,如果發(fā)生事故,汽車(chē)會(huì)保護(hù)乘客,不會(huì)輕易爆炸。如果汽車(chē)公司忽視了安全問(wèn)題,消費(fèi)者可以起訴它,要求賠償損失,政府可以阻止它銷(xiāo)售不安全的汽車(chē)。政府甚至可以監(jiān)管安全的汽車(chē)。有許多法律限制汽車(chē)的行駛區(qū)域和速度。同樣的標(biāo)準(zhǔn)也應(yīng)該適用于算法。當(dāng)一個(gè)公司生產(chǎn)出一個(gè)強(qiáng)大的新算法時(shí),也許所有研究預(yù)算的20%必須用于確保該算法不會(huì)對(duì)人們?cè)斐扇魏紊鐣?huì)或心理傷害。政府應(yīng)該規(guī)范如何使用安全的算法。目前的情況是,公司在沒(méi)有任何安全檢查和規(guī)定的情況下向公眾領(lǐng)域發(fā)布他們喜歡的任何算法,這是不可接受的。有AI愛(ài)好者告訴我們,目前專(zhuān)注于安全是錯(cuò)誤的。這將減緩發(fā)展速度,并可能給其他國(guó)家更無(wú)情的競(jìng)爭(zhēng)對(duì)手帶來(lái)優(yōu)勢(shì)。AI愛(ài)好者解釋說(shuō),在未來(lái),如果AI被證明是危險(xiǎn)的,我們可以把精力轉(zhuǎn)移到安全上。但這太瘋狂了。當(dāng)你學(xué)習(xí)開(kāi)車(chē)時(shí),他們教你的第一件事就是如何踩剎車(chē)。只有在你知道如何使用剎車(chē)之后,他們才會(huì)教你如何按油門(mén)。人工智能也應(yīng)該如此。首先要確保我們能夠控制它,然后才能加速它的發(fā)展。至于投資于安全會(huì)讓更無(wú)情的競(jìng)爭(zhēng)對(duì)手獲得優(yōu)勢(shì)的說(shuō)法,這是無(wú)稽之談。如果你的競(jìng)爭(zhēng)對(duì)手開(kāi)發(fā)一輛沒(méi)有剎車(chē)的汽車(chē),這是否意味著你也必須開(kāi)發(fā)這樣一輛危險(xiǎn)的汽車(chē)?即使從純粹的經(jīng)濟(jì)角度來(lái)看,人們也更喜歡安全的產(chǎn)品而不是不安全的產(chǎn)品。5. 我們?nèi)绾畏乐谷斯ぶ悄鼙挥脕?lái)制造虛假信息?我們已經(jīng)看到了許多使用人工智能冒充真人進(jìn)行欺詐的案例,如何制定規(guī)則來(lái)避免這種風(fēng)險(xiǎn)?我們可以從傳統(tǒng)的金融監(jiān)管中汲取靈感。自從硬幣和紙幣被發(fā)明以來(lái),在技術(shù)上總是可以偽造它們。偽造貨幣對(duì)金融體系構(gòu)成了生死攸關(guān)的危險(xiǎn),因?yàn)樗治g了人們對(duì)貨幣的信任。如果壞人向市場(chǎng)投放大量假幣,金融系統(tǒng)就會(huì)崩潰。然而,金融系統(tǒng)通過(guò)制定法律打擊偽鈔,成功地保護(hù)了人們對(duì)貨幣的信任。偽造貨幣的情況現(xiàn)在也適用于偽造人類(lèi)。在人工智能興起之前,一個(gè)人可以假裝成另一個(gè)人,社會(huì)會(huì)懲罰這樣的欺詐行為。但是社會(huì)并沒(méi)有把制造假人定為非法行為,因?yàn)檫@樣做的技術(shù)還不存在。然而現(xiàn)在,人工智能和機(jī)器人可以把自己偽裝成人類(lèi)。例如,當(dāng)機(jī)器人在社交媒體上傳播假新聞時(shí),它會(huì)假裝自己是人類(lèi)。否則,沒(méi)人會(huì)在意機(jī)器人說(shuō)的話。這些假人威脅、甚至摧毀真正的人類(lèi)之間的信任。因此,各國(guó)政府應(yīng)該像取締假幣一樣,堅(jiān)決取締假人。如果有人抱怨如此嚴(yán)格的措施侵犯了言論自由,他們應(yīng)該被提醒,機(jī)器人沒(méi)有言論自由。這意味著我們必須禁止所有機(jī)器人、算法和人工智能參與任何討論。我們歡迎數(shù)字代理加入許多對(duì)話,只要他們不假裝自己是人類(lèi)。6. 我們似乎越來(lái)越成為算法的傀儡,無(wú)法自拔。我們?nèi)绾谓鉀Q這個(gè)問(wèn)題?是應(yīng)該對(duì)平臺(tái)算法進(jìn)行嚴(yán)格監(jiān)管,還是應(yīng)該依靠商業(yè)自律?一項(xiàng)重要措施是讓公司對(duì)其算法造成的損害負(fù)責(zé)。以社交媒體算法為例。這些算法不斷嘗試增加用戶粘性。用戶在社交媒體上花費(fèi)的時(shí)間越多,公司賺的錢(qián)就越多。然而,為了追求“最大化用戶粘性”的目標(biāo),算法進(jìn)行了一個(gè)危險(xiǎn)的探索。通過(guò)對(duì)數(shù)百萬(wàn)人的實(shí)驗(yàn),算法發(fā)現(xiàn)貪婪、仇恨和恐懼會(huì)增加用戶的參與度。如果你能在一個(gè)人的頭腦中按下貪婪、仇恨或恐懼的按鈕你就抓住了那個(gè)人的注意力,并讓他們繼續(xù)留在這個(gè)平臺(tái)上。因此,算法開(kāi)始故意傳播貪婪、仇恨和恐懼。他們推薦人們觀看充滿憤怒、仇恨和貪婪的帖子,偶爾甚至?xí)詣?dòng)播放充滿仇恨的視頻和陰謀論。這是當(dāng)前陰謀論、假新聞和社會(huì)動(dòng)蕩肆虐,嚴(yán)重破壞世界各地社會(huì)安定的主要原因。社交媒體公司拒絕為其算法造成的損害承擔(dān)責(zé)任。相反,這些公司指責(zé)他們的人類(lèi)用戶。他們認(rèn)為,網(wǎng)上所有的仇恨和謊言都是由人類(lèi)用戶制造的。然而,這種說(shuō)法具有誤導(dǎo)性,人類(lèi)確實(shí)在網(wǎng)上制造了很多有害的內(nèi)容,但人類(lèi)也創(chuàng)造了很多良性內(nèi)容。一個(gè)人創(chuàng)造了一個(gè)充滿仇恨的陰謀論,另一個(gè)人宣揚(yáng)同情心,第三個(gè)人教烹飪課。是算法推薦人們觀看充滿仇恨的視頻,而不是推薦更良性的內(nèi)容。我們應(yīng)該讓公司對(duì)其算法的行為負(fù)責(zé)。7.蘇格拉底說(shuō):“人啊,認(rèn)識(shí)你自己吧。”在我看來(lái),這是哲學(xué)的一個(gè)基本概念。如果人工智能變得比人類(lèi)更強(qiáng)大,像神一樣,它開(kāi)始思考這個(gè)問(wèn)題它僅僅是一個(gè)比人類(lèi)更強(qiáng)大的工具,還是一個(gè)比人類(lèi)更強(qiáng)大的統(tǒng)治者,這將是我們?yōu)碾y的開(kāi)始嗎?我們不知道人工智能是否會(huì)思考這樣的問(wèn)題,因?yàn)槲覀儾恢廊斯ぶ悄苁欠駮?huì)發(fā)展出意識(shí)。許多人傾向于將智能與意識(shí)混淆,并認(rèn)為隨著人工智能變得更加智能,它也將不可避免地變得有意識(shí)。但在現(xiàn)實(shí)中,計(jì)算機(jī)可以在沒(méi)有獲得意識(shí)的情況下勝過(guò)人類(lèi),因?yàn)橹悄芎鸵庾R(shí)是非常不同的東西。智能是追求目標(biāo)和解決問(wèn)題的能力。意識(shí)是感受痛苦、快樂(lè)、愛(ài)和憤怒等情緒的能力。在人類(lèi)和其他哺乳動(dòng)物中,智能與意識(shí)密切相關(guān)。我們依靠自己的感覺(jué)來(lái)解決問(wèn)題和實(shí)現(xiàn)目標(biāo)。然而,計(jì)算機(jī)解決問(wèn)題的方式與人類(lèi)非常不同,絕對(duì)沒(méi)有理由認(rèn)為它們會(huì)在這個(gè)過(guò)程中發(fā)展出意識(shí)。例如,今天人工智能在下棋和圍棋方面已經(jīng)超過(guò)了人類(lèi),但當(dāng)人工智能贏了一場(chǎng)比賽時(shí),它不會(huì)感到高興,如果輸了,它也不會(huì)感到悲傷。沒(méi)有跡象表明計(jì)算機(jī)在發(fā)展意識(shí)的道路上有任何進(jìn)展。通往超級(jí)智能的道路可能有好幾條,其中只有一些涉及到獲得意識(shí)。就像飛機(jī)在沒(méi)有長(zhǎng)出羽毛的情況下飛得比鳥(niǎo)快一樣,計(jì)算機(jī)可能在沒(méi)有產(chǎn)生感情的情況下比人類(lèi)更好地解決問(wèn)題。然而,即使是無(wú)意識(shí)的人工智能也會(huì)威脅到人類(lèi)。我們可以給人工智能設(shè)定各種各樣的目標(biāo)。在追求這些目標(biāo)的過(guò)程中,人工智能可能會(huì)認(rèn)識(shí)到,它們必須保護(hù)自己,必須獲得更多的權(quán)力。沒(méi)有權(quán)力,幾乎沒(méi)有什么目標(biāo)可以實(shí)現(xiàn)。隨著人工智能試圖獲得權(quán)力,它們可能會(huì)開(kāi)始做一些意想不到的事情,威脅到人類(lèi)。這聽(tīng)起來(lái)像是一個(gè)不可能的場(chǎng)景,但許多哲學(xué)家認(rèn)為這正是已經(jīng)發(fā)生在人類(lèi)身上的事情。畢竟,人類(lèi)的普遍目標(biāo)是什么?人類(lèi)受一個(gè)極其簡(jiǎn)單的原則支配。他們避免痛苦,追求快樂(lè),這就是所有了。當(dāng)我們感到痛苦時(shí),我們想要擺脫這種感覺(jué)。當(dāng)我們感到愉快時(shí),我們想要更多。然而,生物學(xué)和文化都利用這個(gè)簡(jiǎn)單的原理創(chuàng)造了極其復(fù)雜和意想不到的行為。父母犧牲自己的生命來(lái)保護(hù)他們的孩子,因?yàn)榭吹剿麄兊暮⒆邮芸嗨鶐?lái)的痛苦比任何其他的痛苦都要大。好幾個(gè)國(guó)家都在打仗,因?yàn)檎蛡冋业搅死脭?shù)百萬(wàn)人的感情來(lái)實(shí)現(xiàn)共同目標(biāo)的方法?吹轿覀兊膰(guó)家受辱是痛苦的,看到它勝利是高興的。就像整個(gè)星系都是由微小的原子構(gòu)成的一樣,世界大戰(zhàn)也是由人類(lèi)的痛苦和快樂(lè)構(gòu)成的。如果計(jì)算機(jī)專(zhuān)家給AI編寫(xiě)一個(gè)非常簡(jiǎn)單的功能,為某些行為提供獎(jiǎng)勵(lì),為其他行為提供懲罰,會(huì)發(fā)生什么?這個(gè)簡(jiǎn)單的功能就是人工智能最終發(fā)動(dòng)世界大戰(zhàn)所需要的全部。最大的問(wèn)題是獎(jiǎng)勵(lì)功能是否需要意識(shí)。痛苦是一種感覺(jué)它需要意識(shí)。但是計(jì)算機(jī)科學(xué)家可以設(shè)計(jì)出一種不需要意識(shí)的獎(jiǎng)勵(lì)功能嗎?如果可以的話,那么無(wú)意識(shí)的人工智能可能有一天會(huì)接管世界。這可能是一場(chǎng)宇宙規(guī)模的災(zāi)難。因?yàn)槿斯ぶ悄芸赡懿粌H會(huì)消滅人類(lèi)在地球上的統(tǒng)治,還會(huì)消滅意識(shí)之光本身。隨著無(wú)意識(shí)的人工智能從地球擴(kuò)散出去,征服一個(gè)又一個(gè)星球,它們將把宇宙變成一個(gè)完全黑暗的帝國(guó)。我們有責(zé)任防止這種情況發(fā)生。8.在您的書(shū)中,您討論了技術(shù)對(duì)人類(lèi)未來(lái)的影響。您認(rèn)為我們目前對(duì)人工智能和生物技術(shù)的監(jiān)管是否足夠?未來(lái)的潛在挑戰(zhàn)和機(jī)遇是什么?在書(shū)中探討了自由意志的概念,特別是在大數(shù)據(jù)和算法的背景下。你認(rèn)為科技進(jìn)步將如何改變我們對(duì)自由意志的理解?自由不是你擁有的東西。自由是你必須為之奮斗的東西。相信自己的決定反映了“自由意志”的人是最容易被操縱的人。人們當(dāng)然有意志,我們一直在做決定。但這些決定大多不是自由做出的。它們受到各種生物、文化和政治力量的影響。對(duì)“自由意志”的信仰是危險(xiǎn)的,因?yàn)樗L(zhǎng)了對(duì)我們自己的無(wú)知。當(dāng)我們選擇一樣?xùn)|西一件產(chǎn)品、一份事業(yè)、一個(gè)配偶、一種政治觀點(diǎn),我們告訴自己“我是出于自由意志選擇這個(gè)的”。如果是這樣,就不用深究了。沒(méi)有理由去好奇我內(nèi)心發(fā)生了什么,以及是什么力量塑造了我的選擇。因?yàn)閺?qiáng)大的新技術(shù)被開(kāi)發(fā)出來(lái),用于塑造和操縱我們的選擇,現(xiàn)在對(duì)自由意志的信仰比以往任何時(shí)候都更加危險(xiǎn)。因此,我建議人們避免對(duì)自由意志的幼稚信仰。相反,探索你自己。了解真正影響你的欲望和決定的是什么。這是確保你不會(huì)成為人類(lèi)暴君或超級(jí)智能計(jì)算機(jī)的傀儡的唯一方法。你越質(zhì)疑對(duì)自由意志的幼稚信仰你就越享受真正的自由。