展會信息港展會大全

專家:人工智能開始對現(xiàn)實世界產(chǎn)生重大影響
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-11-09 08:36:35   瀏覽:84009次  

導(dǎo)讀:中國日報網(wǎng)11月8日電 據(jù)英國《衛(wèi)報》報道,曾撰寫過一本有關(guān)人工智能的權(quán)威教科書的美國科學(xué)家表示,在將人工智能的進步比作原子彈技術(shù)的發(fā)展時,專家們被自己在該領(lǐng)域的成就嚇壞了。 美國加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)始人斯圖爾特拉...

中國日報網(wǎng)11月8日電 據(jù)英國《衛(wèi)報》報道,曾撰寫過一本有關(guān)人工智能的權(quán)威教科書的美國科學(xué)家表示,在將人工智能的進步比作原子彈技術(shù)的發(fā)展時,專家們被自己在該領(lǐng)域的成就“嚇壞了”。

美國加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)始人斯圖爾特拉塞爾(Stuart Russell)教授表示,大多數(shù)專家認(rèn)為本世紀(jì)就會開發(fā)出比人類更聰明的機器,并呼吁制定一些國際條約來規(guī)范這一技術(shù)的發(fā)展。

他對《衛(wèi)報》表示,人工智能界還沒有適應(yīng)人工智能技術(shù)開始在現(xiàn)實世界中產(chǎn)生真正的重大影響的事實。但是,在人工智能歷史上,過往大多數(shù)時候都不是這樣的專家只是待在實驗室里開發(fā)產(chǎn)品,試圖讓這些產(chǎn)品發(fā)揮作用,但大多數(shù)情況下都失敗了。因此,人工智能對現(xiàn)實世界的影響與科學(xué)家并沒有太大聯(lián)系,所以科學(xué)家必須快速成長、趕上潮流。

人工智能支撐著現(xiàn)代生活的許多方面,包括搜索引擎和銀行業(yè)務(wù)等,而在圖像識別和機器翻譯領(lǐng)域所取得的進步是近年來的重要發(fā)展之一。

拉塞爾在1995年合著了《人工智能技術(shù):一種現(xiàn)代方法》一書。他表示,在緊迫的關(guān)鍵領(lǐng)域仍需要確保人類對有超常智慧的人工智能的控制權(quán)。

他指出,人工智能是用一種特定的方法和某種通用方法進行設(shè)計的,而在復(fù)雜的現(xiàn)實環(huán)境中使用這種系統(tǒng)仍然不夠謹(jǐn)慎。

例如,要求人工智能盡快治愈癌癥可能會有危險。拉塞爾認(rèn)為,它可能會找到在整個人類中誘發(fā)腫瘤的方法,這樣它就可以并行進行數(shù)百萬個實驗,把我們所有人都當(dāng)作實驗品。這是因為人工智能在執(zhí)行我們所設(shè)定目標(biāo)的解決方案;但我們只是忘了作具體說明,忘了告訴人工智能不能把人類當(dāng)作實驗品、不能用全世界的GDP來完成人工智能實驗,以及其他的禁忌等。”

他還表示,如今的人工智能技術(shù)與《機械姬》等電影中描述的技術(shù)仍有很大差距,但未來的機器勢必會比人類更聰明。

拉塞爾認(rèn),為這一目標(biāo)最快可以在10年內(nèi)實現(xiàn),慢則需要長達幾百年的光陰。不過,幾乎所有人工智能研究人員都認(rèn)為這將一展望將在本世紀(jì)得以實現(xiàn)。

一個擔(dān)憂的問題是,機器不需要在所有方面都比人類更聰明,否則會帶來嚴(yán)重的風(fēng)險。拉塞爾表示,這是目前科學(xué)家們正在做的事情。如果了解一下社交媒體和那些通過計算給人們推送閱讀和觀看內(nèi)容的算法,就會知道它們在很大程度上控制著我們的認(rèn)知輸入。

他表示,結(jié)果就是算法操縱著用戶,不停地給他們洗腦,這樣算法就可以預(yù)測用戶的行為和喜好,所推送的內(nèi)容也會獲得更多的點贊及收入。

以于人工智能研究人員是否被自己的成就嚇到的問題,拉塞爾明確表示,“是的,我認(rèn)為我們的恐懼正與日俱增”。

這讓拉塞爾想起了在物理學(xué)領(lǐng)域發(fā)生的事情:物理學(xué)家知道原子能的存在,他們可以測量出不同原子的質(zhì)量,還可以計算出在不同類型的原子之間進行轉(zhuǎn)換可以釋放多少能量。但是,專家們總是強調(diào)這些想法只是理論上的。隨后當(dāng)原子能真正運用到實際生活中時,這些專家還沒有準(zhǔn)備好。

拉塞爾表示,人工智能在軍事領(lǐng)域上的應(yīng)用,比如造小型殺傷性武器等,十分令人擔(dān)憂。這些武器是可以量產(chǎn)的,這意味著可以在一輛卡車上安裝一百萬個小型武器,之后你打開后車廂讓它駛離,就足以摧毀整座城市。

拉塞爾認(rèn)為,人工智能的未來在于開發(fā)出一種機器,知道真正的目標(biāo)是不確定的,就好像人們的偏好也是不確定的一樣。這意味著它們在做出任何決定時都必須與人類進行溝通,而不是像管家一樣自行決定。但是,這個想法很復(fù)雜,尤其是因為不同的人有不同的、或相互沖突的偏好,而這些偏好不是固定的。

拉塞爾呼吁人們采取措施,包括制定研究人員行為準(zhǔn)則、立法和條約,以確保使用的人工智能系統(tǒng)的安全,還應(yīng)該培訓(xùn)研究人員來確保人工智能免遭種族偏見等問題的影響。他表示,歐盟禁止機器模仿人類的相關(guān)立法應(yīng)該在世界范圍內(nèi)實施。

他希望讓公眾參與到這些選擇中來是很重要的,因為公眾才是最終受益與否的對象。

另一方面,在人工智能領(lǐng)域取得進步需要一段時間才能實現(xiàn),但這也不會讓人工智能變成科幻小說。

(編譯:喻玲蕭 編輯:王旭泉)


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港