展會(huì)信息港展會(huì)大全

專家:人工智能開始對(duì)現(xiàn)實(shí)世界產(chǎn)生重大影響
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-11-09 08:36:35   瀏覽:83812次  

導(dǎo)讀:中國日?qǐng)?bào)網(wǎng)11月8日電 據(jù)英國《衛(wèi)報(bào)》報(bào)道,曾撰寫過一本有關(guān)人工智能的權(quán)威教科書的美國科學(xué)家表示,在將人工智能的進(jìn)步比作原子彈技術(shù)的發(fā)展時(shí),專家們被自己在該領(lǐng)域的成就嚇壞了。 美國加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)始人斯圖爾特拉...

中國日?qǐng)?bào)網(wǎng)11月8日電 據(jù)英國《衛(wèi)報(bào)》報(bào)道,曾撰寫過一本有關(guān)人工智能的權(quán)威教科書的美國科學(xué)家表示,在將人工智能的進(jìn)步比作原子彈技術(shù)的發(fā)展時(shí),專家們被自己在該領(lǐng)域的成就“嚇壞了”。

美國加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)始人斯圖爾特拉塞爾(Stuart Russell)教授表示,大多數(shù)專家認(rèn)為本世紀(jì)就會(huì)開發(fā)出比人類更聰明的機(jī)器,并呼吁制定一些國際條約來規(guī)范這一技術(shù)的發(fā)展。

他對(duì)《衛(wèi)報(bào)》表示,人工智能界還沒有適應(yīng)人工智能技術(shù)開始在現(xiàn)實(shí)世界中產(chǎn)生真正的重大影響的事實(shí)。但是,在人工智能歷史上,過往大多數(shù)時(shí)候都不是這樣的專家只是待在實(shí)驗(yàn)室里開發(fā)產(chǎn)品,試圖讓這些產(chǎn)品發(fā)揮作用,但大多數(shù)情況下都失敗了。因此,人工智能對(duì)現(xiàn)實(shí)世界的影響與科學(xué)家并沒有太大聯(lián)系,所以科學(xué)家必須快速成長、趕上潮流。

人工智能支撐著現(xiàn)代生活的許多方面,包括搜索引擎和銀行業(yè)務(wù)等,而在圖像識(shí)別和機(jī)器翻譯領(lǐng)域所取得的進(jìn)步是近年來的重要發(fā)展之一。

拉塞爾在1995年合著了《人工智能技術(shù):一種現(xiàn)代方法》一書。他表示,在緊迫的關(guān)鍵領(lǐng)域仍需要確保人類對(duì)有超常智慧的人工智能的控制權(quán)。

他指出,人工智能是用一種特定的方法和某種通用方法進(jìn)行設(shè)計(jì)的,而在復(fù)雜的現(xiàn)實(shí)環(huán)境中使用這種系統(tǒng)仍然不夠謹(jǐn)慎。

例如,要求人工智能盡快治愈癌癥可能會(huì)有危險(xiǎn)。拉塞爾認(rèn)為,它可能會(huì)找到在整個(gè)人類中誘發(fā)腫瘤的方法,這樣它就可以并行進(jìn)行數(shù)百萬個(gè)實(shí)驗(yàn),把我們所有人都當(dāng)作實(shí)驗(yàn)品。這是因?yàn)槿斯ぶ悄茉趫?zhí)行我們所設(shè)定目標(biāo)的解決方案;但我們只是忘了作具體說明,忘了告訴人工智能不能把人類當(dāng)作實(shí)驗(yàn)品、不能用全世界的GDP來完成人工智能實(shí)驗(yàn),以及其他的禁忌等。”

他還表示,如今的人工智能技術(shù)與《機(jī)械姬》等電影中描述的技術(shù)仍有很大差距,但未來的機(jī)器勢(shì)必會(huì)比人類更聰明。

拉塞爾認(rèn),為這一目標(biāo)最快可以在10年內(nèi)實(shí)現(xiàn),慢則需要長達(dá)幾百年的光陰。不過,幾乎所有人工智能研究人員都認(rèn)為這將一展望將在本世紀(jì)得以實(shí)現(xiàn)。

一個(gè)擔(dān)憂的問題是,機(jī)器不需要在所有方面都比人類更聰明,否則會(huì)帶來嚴(yán)重的風(fēng)險(xiǎn)。拉塞爾表示,這是目前科學(xué)家們正在做的事情。如果了解一下社交媒體和那些通過計(jì)算給人們推送閱讀和觀看內(nèi)容的算法,就會(huì)知道它們?cè)诤艽蟪潭壬峡刂浦覀兊恼J(rèn)知輸入。

他表示,結(jié)果就是算法操縱著用戶,不停地給他們洗腦,這樣算法就可以預(yù)測(cè)用戶的行為和喜好,所推送的內(nèi)容也會(huì)獲得更多的點(diǎn)贊及收入。

以于人工智能研究人員是否被自己的成就嚇到的問題,拉塞爾明確表示,“是的,我認(rèn)為我們的恐懼正與日俱增”。

這讓拉塞爾想起了在物理學(xué)領(lǐng)域發(fā)生的事情:物理學(xué)家知道原子能的存在,他們可以測(cè)量出不同原子的質(zhì)量,還可以計(jì)算出在不同類型的原子之間進(jìn)行轉(zhuǎn)換可以釋放多少能量。但是,專家們總是強(qiáng)調(diào)這些想法只是理論上的。隨后當(dāng)原子能真正運(yùn)用到實(shí)際生活中時(shí),這些專家還沒有準(zhǔn)備好。

拉塞爾表示,人工智能在軍事領(lǐng)域上的應(yīng)用,比如造小型殺傷性武器等,十分令人擔(dān)憂。這些武器是可以量產(chǎn)的,這意味著可以在一輛卡車上安裝一百萬個(gè)小型武器,之后你打開后車廂讓它駛離,就足以摧毀整座城市。

拉塞爾認(rèn)為,人工智能的未來在于開發(fā)出一種機(jī)器,知道真正的目標(biāo)是不確定的,就好像人們的偏好也是不確定的一樣。這意味著它們?cè)谧龀鋈魏螞Q定時(shí)都必須與人類進(jìn)行溝通,而不是像管家一樣自行決定。但是,這個(gè)想法很復(fù)雜,尤其是因?yàn)椴煌娜擞胁煌、或相互沖突的偏好,而這些偏好不是固定的。

拉塞爾呼吁人們采取措施,包括制定研究人員行為準(zhǔn)則、立法和條約,以確保使用的人工智能系統(tǒng)的安全,還應(yīng)該培訓(xùn)研究人員來確保人工智能免遭種族偏見等問題的影響。他表示,歐盟禁止機(jī)器模仿人類的相關(guān)立法應(yīng)該在世界范圍內(nèi)實(shí)施。

他希望讓公眾參與到這些選擇中來是很重要的,因?yàn)楣姴攀亲罱K受益與否的對(duì)象。

另一方面,在人工智能領(lǐng)域取得進(jìn)步需要一段時(shí)間才能實(shí)現(xiàn),但這也不會(huì)讓人工智能變成科幻小說。

(編譯:喻玲蕭 編輯:王旭泉)


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港