展會信息港展會大全

全球24名AI專家聯(lián)合發(fā)文:至少三分之一研發(fā)預(yù)算要用于確保安全
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-10-25 18:14:47   瀏覽:4331次  

導(dǎo)讀:這是人工智能專家今年簽署的關(guān)于AI風(fēng)險的第三份重要聲明,與之前兩份不同的是,新聲明是對各國政府詢問要做什么的回答。 這篇文章提出,確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,并呼吁制定國家和國際標...

這是人工智能專家今年簽署的關(guān)于AI風(fēng)險的第三份重要聲明,與之前兩份不同的是,新聲明是對各國政府詢問“要做什么”的回答。

這篇文章提出,確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,并呼吁制定國家和國際標準。

當(dāng)?shù)貢r間10月24日,包括圖靈獎獲得者杰弗里辛頓(Geoffrey Hinton)和約書亞本吉奧(Yoshua Bengio)在內(nèi)的24名人工智能專家聯(lián)合發(fā)表文章《在快速進步的時代管理人工智能風(fēng)險》,呼吁各國政府采取行動管理人工智能帶來的風(fēng)險。該文章特別關(guān)注最先進系統(tǒng)帶來的極端風(fēng)險,例如助長大規(guī)模犯罪或恐怖活動。

文章提出了一些具體的政策建議,例如確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用。作者還呼吁制定國家和國際標準。

這份文件的作者包括中國專家:清華大學(xué)交叉信息研究院院長姚期智、清華大學(xué)智能產(chǎn)業(yè)研究院院長張亞勤、清華大學(xué)人工智能國際治理研究院院長薛瀾和華東政法大學(xué)政治學(xué)研究院院長高奇琦。

《在快速進步的時代管理人工智能風(fēng)險》的作者名單。

“謹慎樂觀語氣”

作者之一、加州大學(xué)伯克利分校計算機科學(xué)教授斯圖爾特羅素(Stuart Russell)表示,最新的聲明與之前專家主導(dǎo)的公開信有所不同,因為“各國政府已經(jīng)意識到存在真正的風(fēng)險。他們向人工智能圈詢問‘要做什么?’該聲明就是對這個問題的回答。”

這是人工智能專家今年簽署的關(guān)于AI風(fēng)險的第三份重要聲明。3月,包括特斯拉創(chuàng)始人埃隆馬斯克、本吉奧和羅素在內(nèi)的數(shù)萬人簽署了一封公開信,呼吁人工智能實驗室“立即暫停訓(xùn)練比GPT-4更強大的人工智能系統(tǒng)至少6個月”。

5月,人工智能安全中心組織的一份聲明稱,“與流行病和核戰(zhàn)爭等其他社會規(guī)模風(fēng)險一樣,減輕人工智能帶來的滅絕風(fēng)險應(yīng)該成為全球優(yōu)先事項。”該聲明由500多名著名學(xué)者和行業(yè)領(lǐng)袖簽署,其中同樣包括辛頓、本吉奧和羅素,也包括3個最著名AI公司的首席執(zhí)行官:OpenAI的山姆奧特曼(Sam Altman)、DeepMind的德米斯哈薩比斯(Demis Hassabis)和Anthropic的達里奧阿莫代(Dario Amodei)。

機器人公司Covariant.ai的聯(lián)合創(chuàng)始人、總裁兼首席科學(xué)家,加州大學(xué)伯克利分校電氣工程和計算機科學(xué)教授彼得阿貝爾(Pieter Abbeel)沒有簽署之前的公開信,但簽署了最新聲明。阿貝爾告訴《時代》雜志,這份最新聲明的謹慎樂觀語氣比之前公開信中令人震驚的語氣更符合他的觀點。

文章說了什么?

“人工智能在蛋白質(zhì)折疊或策略游戲等狹窄領(lǐng)域已經(jīng)超越了人類的能力。與人類相比,人工智能系統(tǒng)可以更快地行動,吸收更多的知識,并以更高的帶寬進行通信。此外,它們可以擴展以使用巨大的計算資源,并且可以進行數(shù)百萬次復(fù)制。”文章寫道,“改進的速度已經(jīng)是驚人的了,科技公司擁有所需的現(xiàn)金儲備,可以很快將最新的訓(xùn)練規(guī)模擴大100到1000倍。結(jié)合人工智能研發(fā)的持續(xù)增長和自動化,我們必須認真對待通用人工智能系統(tǒng)在這十年或未來十年內(nèi)在許多關(guān)鍵領(lǐng)域超越人類能力的可能性。”

文章認為,現(xiàn)在調(diào)整已經(jīng)落后于計劃。“我們必須預(yù)見到持續(xù)危害和新風(fēng)險的擴大,并在最大風(fēng)險發(fā)生之前做好準備。人們花了幾十年的時間才認識和應(yīng)對氣候變化;對于人工智能來說,幾十年可能太長了。”

在社會規(guī)模風(fēng)險方面,自主人工智能系統(tǒng)可以越來越多地承擔(dān)關(guān)鍵的社會角色。“如果沒有足夠的謹慎,我們可能會不可逆轉(zhuǎn)地失去對自主人工智能系統(tǒng)的控制,從而導(dǎo)致人類干預(yù)無效。大規(guī)模網(wǎng)絡(luò)犯罪、社會操縱和其他突出危害可能會迅速升級。這種不受控制的人工智能進步可能最終導(dǎo)致生命和生物圈的大規(guī)模喪失,以及人類的邊緣化甚至滅絕。”

對于前進的道路,文章指出,首先要調(diào)整技術(shù)研發(fā)方向。需要研究突破,來解決當(dāng)今創(chuàng)建具有安全和道德目標的人工智能的一些技術(shù)挑戰(zhàn)。其中一些挑戰(zhàn)不太可能通過簡單地提高人工智能系統(tǒng)的能力來解決?紤]到風(fēng)險,“我們呼吁主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,這與他們對人工智能能力的投資相當(dāng)。”

其次是緊急治理措施。“我們迫切需要國家機構(gòu)和國際治理機構(gòu)來執(zhí)行標準,以防止魯莽行為和濫用。”“為了跟上快速進步并避免僵化的法律,國家機構(gòu)需要強大的技術(shù)專長和迅速采取行動的權(quán)力。為了應(yīng)對國際競爭態(tài)勢,他們需要有能力促進國際協(xié)議和伙伴關(guān)系。”但是,為了保護低風(fēng)險的使用和學(xué)術(shù)研究,監(jiān)管者應(yīng)該避免對小型和可預(yù)測的人工智能模型設(shè)置不當(dāng)?shù)墓倭耪系K。“最緊迫的審查應(yīng)該是前沿的人工智能系統(tǒng):少數(shù)最強大的人工智能系統(tǒng)將具有最危險和不可預(yù)測的能力。”

文章建議,監(jiān)管機構(gòu)應(yīng)要求模型注冊、保護舉報人、報告事件以及監(jiān)控模型開發(fā)和超級計算機的使用。為了縮短法規(guī)出臺的時間,主要人工智能公司應(yīng)立即做出“如果那么”承諾:如果在其人工智能系統(tǒng)中發(fā)現(xiàn)特定的紅線功能,他們將采取具體的安全措施。

大公司與小公司

文章中建議的政策之一是要求公司在開發(fā)“能力超群的未來模型”之前尋求許可,但一些人工智能開發(fā)人員和觀察者警告說,這將使能夠承擔(dān)獲得許可所需的監(jiān)管負擔(dān)的大公司受益。對此,本吉奧稱這是一個“完全錯誤的論點”,并指出許可帶來的負擔(dān)將完全落在開發(fā)最大、最有能力的人工智能模型的公司身上。相反,真正需要警惕的風(fēng)險是,如果允許大公司影響立法,將導(dǎo)致立法不夠健全。

羅素表示,關(guān)于大型人工智能公司推動監(jiān)管以將小公司拒之門外的說法是“胡說八道”。他認為,盡管對三明治店的監(jiān)管比對人工智能公司的監(jiān)管要多,但數(shù)以萬計的新咖啡館和餐廳每年都會開業(yè)。

這份新文件發(fā)布之際,開發(fā)先進人工智能的國家或區(qū)域的監(jiān)管規(guī)則正處于不同階段。中國的《生成式人工智能服務(wù)管理暫行辦法》已于8月生效。歐盟的《人工智能法案》仍在立法進程中,最新消息稱可能至少推遲到明年才會通過。在美國,白宮已獲得15家領(lǐng)先人工智能開發(fā)商的自愿承諾,但國會距離通過人工智能立法還有很長的路要走。

與此同時,英國首相里希蘇納克正試圖在促進人工智能問題的國際合作方面發(fā)揮關(guān)鍵作用,計劃在11月舉辦全球人工智能安全峰會,并邀請中國與會。聯(lián)合國秘書長安東尼奧古特雷斯及其技術(shù)特使阿曼迪普吉爾(Amandeep Gill)也在努力推進人工智能的全球治理。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港