2023年5月16日,在美國(guó)參議院小組委員會(huì)聽(tīng)證會(huì)上,OpenAI首席執(zhí)行官薩姆奧爾特曼(Sam Altman)呼吁政府對(duì)人工智能(AI)進(jìn)行監(jiān)管。他認(rèn)為,如果這項(xiàng)技術(shù)出錯(cuò),會(huì)錯(cuò)得很?chē)?yán)重,會(huì)對(duì)世界造成重大傷害。
“在我再次創(chuàng)新之前阻止我”,在場(chǎng)的伊利諾斯州參議員Dick Durbin直言這真是讓人耳目一新,他已經(jīng)想不起來(lái)還有其他公司如此強(qiáng)烈要求對(duì)其所處行業(yè)進(jìn)行監(jiān)管,過(guò)去科技企業(yè)都是在監(jiān)管部門(mén)推動(dòng)下而為之。
不過(guò),面對(duì)2022年11月ChatGPT發(fā)布以來(lái)的全球AI狂潮,各主要科技企業(yè)對(duì)大模型的快速跟進(jìn),人們對(duì)AI潛能的期待、風(fēng)險(xiǎn)的擔(dān)憂,對(duì)“始作俑者”OpenAI來(lái)說(shuō),這似乎是目前唯一的正確選擇。
政府在行動(dòng)
這不是OpenAI第一次和政府監(jiān)管部門(mén)打交道。不過(guò),施壓者并非來(lái)自美國(guó)本土,而是歐洲。
一個(gè)多月前,2023年3月31日,意大利數(shù)據(jù)保護(hù)局(DPA)宣布禁用ChatGPT,并對(duì)其展開(kāi)調(diào)查。主要原因是ChatGPT出現(xiàn)了用戶對(duì)話數(shù)據(jù)和付款服務(wù)支付信息丟失情況,且沒(méi)有核查用戶的年齡,沒(méi)有就收集處理用戶信息進(jìn)行告知,缺乏大量收集和存儲(chǔ)個(gè)人信息的法律依據(jù)。
4月13日,法國(guó)國(guó)家信息自由委員會(huì)(CNIL)、西班牙國(guó)家數(shù)據(jù)保護(hù)局(AEPD)在同一天里宣布對(duì)ChatGPT展開(kāi)調(diào)查。隨后,歐洲數(shù)據(jù)保護(hù)委員會(huì)成立專門(mén)工作組,以促進(jìn)該調(diào)查在歐洲地區(qū)的合作事宜。
與此同時(shí),全球各國(guó)就AI產(chǎn)業(yè)發(fā)展和監(jiān)管紛紛采取行動(dòng)。
從2021年一些生成式AI初創(chuàng)企業(yè)開(kāi)啟AI作畫(huà)、AI生成視頻,再到ChatGPT、GPT-4為代表的大模型文本生成,既讓大家看到了它在提升人類社會(huì)生產(chǎn)力方面的潛力,也在安全、公平、合規(guī)、隱私和知識(shí)產(chǎn)權(quán)等方面帶來(lái)了全新挑戰(zhàn)。
2023年5月11日,歐洲議會(huì)內(nèi)部市場(chǎng)委員會(huì)和公民自由委員會(huì)通過(guò)了《人工智能法案》(The AI Act)的談判授權(quán)草案。這一草案將于今年6月中旬提交歐洲議會(huì)全會(huì)表決,之后歐洲議會(huì)將與歐盟理事會(huì)就法律的最終形式進(jìn)行談判。
這一法案其實(shí)是在2021年首次提出,采取分級(jí)管理的思路,對(duì)不同風(fēng)險(xiǎn)等級(jí)的AI進(jìn)行分級(jí)管理,風(fēng)險(xiǎn)越高越嚴(yán)格,對(duì)透明度和準(zhǔn)確性要求越高。那時(shí)候還沒(méi)有生成式AI,不過(guò)現(xiàn)在立法者已經(jīng)為之添加了一項(xiàng)修正案,將生成式AI與高風(fēng)險(xiǎn)系統(tǒng)置于同一級(jí)別。如無(wú)意外,它將成為全球第一部有關(guān)AI的法規(guī)。
在歐洲議會(huì)通過(guò)草案的前一周(5月4日),美國(guó)白宮宣布了一項(xiàng)AI行動(dòng)計(jì)劃,以促進(jìn)負(fù)責(zé)任的人工智能創(chuàng)新,保護(hù)美國(guó)人的權(quán)利和安全。其中包括美國(guó)國(guó)家科學(xué)基金會(huì)提供1.4億美元的資金,以啟動(dòng)7個(gè)新的國(guó)家人工智能研究所,這項(xiàng)投資將使美國(guó)的研究所總數(shù)達(dá)到25個(gè),參與的組織網(wǎng)絡(luò)擴(kuò)展到幾乎每個(gè)州;對(duì)現(xiàn)有的生成式AI進(jìn)行公開(kāi)評(píng)估,以探索它們?nèi)绾闻c政府AI管理框架保持一致。
不同于歐洲要對(duì)人類安全造成不可接受風(fēng)險(xiǎn)的AI系統(tǒng)進(jìn)行嚴(yán)格監(jiān)管,美國(guó)把鼓勵(lì)創(chuàng)新、產(chǎn)業(yè)發(fā)展放在了監(jiān)管的前面,并就此展開(kāi)了一系列的研究和規(guī)劃。
2022年10月4日,白宮科技政策辦公室(OSTP)發(fā)布《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Bill of Right),確定了五項(xiàng)原則用以指導(dǎo)自動(dòng)化系統(tǒng)的設(shè)計(jì)、使用和部署,以保護(hù)人工智能時(shí)代美國(guó)公眾的利益。
2023年1月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布《人工智能風(fēng)險(xiǎn)管理框架》(AI Risk Management Framework);美國(guó)國(guó)家人工智能研究資源工作組(NAIRRTF)提交《加強(qiáng)美國(guó)人工智能創(chuàng)新生態(tài)系統(tǒng)并使之民主化:國(guó)家人工智能研究資源的實(shí)施計(jì)劃》(Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem:An Implementation Plan for a National Artificial Intelligence Research Resource)。
就在白宮發(fā)布行動(dòng)計(jì)劃的當(dāng)天,美國(guó)副總統(tǒng)哈里斯和政府高級(jí)官員與Alphabet、Anthropic、微軟和OpenAI等四家美國(guó)AI公司的首席執(zhí)行官們會(huì)談。
即便政府監(jiān)管和規(guī)范如此緊鑼密鼓推進(jìn),OpenAI還是坐不住了。
企業(yè)更著急
政府無(wú)疑是AI監(jiān)管極為重要的一環(huán),通過(guò)制定法律法規(guī),來(lái)規(guī)范人工智能系統(tǒng)開(kāi)發(fā)和使用規(guī)則,解決網(wǎng)絡(luò)安全、數(shù)據(jù)隱私等問(wèn)題。但政府監(jiān)管總是要滯后于技術(shù)與產(chǎn)業(yè)發(fā)展,因?yàn)樵械姆蓷l規(guī)無(wú)法完全覆蓋當(dāng)前的開(kāi)發(fā)和應(yīng)用場(chǎng)景,而法律法規(guī)制定需要時(shí)間。
身處一線的從業(yè)者們,對(duì)技術(shù)的理解、對(duì)其應(yīng)用可能產(chǎn)生的結(jié)果有著更敏銳的感知。Sam Altman在5月16日的聽(tīng)證會(huì)上,用了“printing press time”來(lái)形容目前AI的發(fā)展?fàn)顟B(tài)。
越來(lái)越多的AI從業(yè)者們相信,人類已經(jīng)進(jìn)入通用人工智能(AGI)的前夜,這是一個(gè)歷史和技術(shù)的轉(zhuǎn)折點(diǎn),類似原子核裂變的發(fā)現(xiàn),或印刷術(shù)的發(fā)明。以大模型為代表的生成式AI,已經(jīng)迅速掌握了普通人窮極一生都難以掌握的人類知識(shí),相比之下,人類對(duì)AI的掌握和了解太少太少。
機(jī)器學(xué)習(xí)使得AI可以自主學(xué)習(xí),雖然人們可以知曉算法模型,但在很多情況下卻難以理解其運(yùn)作過(guò)程。由于“算法黑箱”導(dǎo)致AI不透明、不可解釋,即便開(kāi)發(fā)者可能也難以理解他們所開(kāi)發(fā)的AI。
OpenAI自己也做了一次實(shí)驗(yàn),用GPT-4來(lái)解釋GPT-2的行為模式。他們用GPT-4打造了一個(gè)理解AI行為模式的工具,對(duì)GPT-2超過(guò)30萬(wàn)個(gè)神經(jīng)元解釋,并和實(shí)際情況比對(duì)進(jìn)行評(píng)分。結(jié)果,雖有超過(guò)1000個(gè)神經(jīng)元的解釋得分在0.8以上,更多神經(jīng)元的解釋得分很低。
正因?yàn)锳I的不可解釋,人會(huì)有理由對(duì)其產(chǎn)生擔(dān)憂和不信任,產(chǎn)業(yè)發(fā)展更應(yīng)謹(jǐn)慎。但是在資本和不同經(jīng)濟(jì)體對(duì)創(chuàng)新、新興產(chǎn)業(yè)的支持下,入圍這一輪AI競(jìng)賽的企業(yè)正一路狂奔。
投資了50家AI初創(chuàng)企業(yè)的知名投資人Ian Hogarth,2023年4月底在FT發(fā)表文章《我們必須放慢通往上帝般人工智能的速度》(We must slow down the race to God-like AI),對(duì)此有一個(gè)形象的描述:大科技公司正在加速AI競(jìng)賽,他們還不知道如何安全地追求他們的目標(biāo),也沒(méi)有監(jiān)督。他們正在向終點(diǎn)線跑去,卻不了解另一邊是什么。
ChatGPT發(fā)布兩個(gè)月就有了1億用戶,一度還因?yàn)樵L問(wèn)量過(guò)大而暫停服務(wù)?芍钡2023年4月25日,OpenAI才調(diào)整了用戶使用條款,在 ChatGPT 中增加關(guān)閉聊天記錄的功能,用戶禁用聊天記錄時(shí)啟動(dòng)的對(duì)話不會(huì)用于訓(xùn)練和改進(jìn)的模型,也不會(huì)顯示在歷史記錄邊欄中。
OpenAI在發(fā)布GPT-4時(shí)不再開(kāi)源,招來(lái)一片聲討。OpenAI首席科學(xué)家Ilya Sutskever解釋稱,當(dāng)AI能力較低時(shí),開(kāi)源是好事,但當(dāng)它能力變得巨大,開(kāi)源是明顯不負(fù)責(zé)任的。此時(shí),安全是閉源的重要驅(qū)動(dòng)力。
這倒并不完全是對(duì)商業(yè)化和競(jìng)爭(zhēng)的推托之詞。AI的發(fā)展速度超出了開(kāi)發(fā)者的預(yù)期,一切都沒(méi)有準(zhǔn)備好。一旦出錯(cuò),首當(dāng)其沖的,就是走在最前面的OpenAI。在監(jiān)管缺位的情況下,如果有人用開(kāi)源模型造出了殺人機(jī)器,怎么辦?
Sam Altman在5月16日的聽(tīng)證會(huì)上闡述風(fēng)險(xiǎn)時(shí)表示,“我最擔(dān)心的是我們會(huì)造成重大傷害,我們這個(gè)領(lǐng)域,這項(xiàng)技術(shù),這個(gè)行業(yè)會(huì)對(duì)世界造成重大傷害。我認(rèn)為這可能以很多不同的方式發(fā)生。”
人類的未來(lái)應(yīng)該由人類來(lái)決定
ChatGPT“出圈”之后,全球科技企業(yè)快速追隨,基于開(kāi)源代碼,結(jié)合企業(yè)此前的AI積累和業(yè)務(wù)場(chǎng)景,套上新的殼,出來(lái)一個(gè)又一個(gè)新模型,讓人眼花繚亂。就連OpenAI自己,在ChatGPT面世僅4個(gè)月后,就忙不迭地推出了新一代大模型GPT-4。
Sam Altman在聽(tīng)證會(huì)上透露,在完成GPT-4的訓(xùn)練后,其實(shí)是等了6個(gè)多月才部署。雖然他稱目前并沒(méi)有將訓(xùn)練用于GPT-5的計(jì)劃,未來(lái)6個(gè)月內(nèi)也沒(méi)有,但是訓(xùn)練并沒(méi)有停止,他認(rèn)為目前還沒(méi)有看到任何他們阻止訓(xùn)練下一個(gè)模型的理由。
這實(shí)在是讓競(jìng)爭(zhēng)對(duì)手和追隨者們無(wú)比緊張。在訓(xùn)練完GPT-4之后,OpenAI究竟在這最近的8個(gè)月里訓(xùn)練什么,下一次又會(huì)放出什么大招來(lái)?
其實(shí)OpenAI也很緊張。Sam Altman多次公開(kāi)表示,由于所需資源很大,能訓(xùn)練真正前沿模型的公司數(shù)目只是少數(shù)。他甚至在聽(tīng)證會(huì)上直言,“我認(rèn)為我們及競(jìng)爭(zhēng)對(duì)手需要受到巨大監(jiān)督”。
建構(gòu)負(fù)責(zé)任的AI,AI才可能有更好的發(fā)展。除了政府的政策法規(guī),科技企業(yè)們也從不同角度展開(kāi)嘗試。
2023年4月底,英偉達(dá)發(fā)布了一個(gè)開(kāi)源軟件NeMo Guardrails,在用戶和大模型之間設(shè)置一組可編程的約束規(guī)則,來(lái)幫助軟件開(kāi)發(fā)者為AI設(shè)置“護(hù)欄”,防止它們產(chǎn)生不良的輸出。
谷歌團(tuán)隊(duì),試圖引入美國(guó)政治哲學(xué)家約翰羅爾斯(John Rawls)的“無(wú)知之幕”(VoI)原則,來(lái)調(diào)整AI行為原則,確保公平和正義。
同時(shí),也有很多研究者、從業(yè)者在持續(xù)發(fā)聲,喚起人們對(duì)AI的關(guān)注。
2023年3月22日,包括圖靈獎(jiǎng)得主Yoshua Bengio等在內(nèi)的多位知名人士聯(lián)名簽署公開(kāi)信,認(rèn)為當(dāng)前AI實(shí)驗(yàn)室陷入了一場(chǎng)失控的競(jìng)賽,考慮到AI可能給人類社會(huì)帶來(lái)的風(fēng)險(xiǎn),呼吁暫停大型AI實(shí)驗(yàn)6個(gè)月。同時(shí),AI開(kāi)發(fā)者必須與政策制定者合作,加快開(kāi)發(fā)強(qiáng)大的 AI治理系統(tǒng)。
有著“AI教父”之稱的Geoffrey Hinton,在2023年5月初辭去谷歌的職位,以更好地談?wù)揂I,做一個(gè)敲響警鐘的人。他在2023年5月3日《麻省理工技術(shù)評(píng)論》(MIT Technology Review)的一個(gè)活動(dòng)中講述了對(duì)AI的擔(dān)憂:失控AI可能讓人類只是智慧演化過(guò)程中的一個(gè)過(guò)渡階段。
Hinton認(rèn)為,人們不會(huì)停止發(fā)展AI,也不會(huì)有機(jī)會(huì)阻止它們發(fā)展,因?yàn)樗鼈冇杏谩K鼉A向于需要用某種方法來(lái)確保,即使AI比人類聰明,仍會(huì)做對(duì)人類有益的事情。同時(shí),我們需要在一個(gè)有惡意行為者的世界里嘗試這樣做,而對(duì)此現(xiàn)在誰(shuí)也沒(méi)有好的解決方案。
AI給人類社會(huì)帶來(lái)的挑戰(zhàn),是綜合、全方位的。僅從5月16日美國(guó)參議院的聽(tīng)證會(huì)看,參議員們提到的既有就業(yè)、輿論、隱私、安全、商業(yè)模式,還有美國(guó)大眩這更需要政府、企業(yè)、研究者們展開(kāi)合作,以及更廣泛的國(guó)際合作。
不過(guò),在當(dāng)前地緣政治、產(chǎn)業(yè)競(jìng)爭(zhēng)環(huán)境中,國(guó)際合作會(huì)比此前艱難。因此,除了政府法規(guī)、行業(yè)標(biāo)準(zhǔn)、企業(yè)自律、研究機(jī)構(gòu)的前瞻性指引,公眾對(duì)AI的認(rèn)知和意愿,更為重要。
正如Sam Altman在2023年2月24日在博客Planning for AGI and beyond中寫(xiě)到的,從長(zhǎng)期看,“我們認(rèn)為,人類的未來(lái)應(yīng)該由人類來(lái)決定,與公眾分享有關(guān)進(jìn)展的信息很重要。應(yīng)該對(duì)所有試圖建立AGI的努力進(jìn)行嚴(yán)格的審查,并對(duì)重大決策進(jìn)行公眾咨詢”。
南方周末研究員 李一躒 南方周末研究員 唐家樂(lè)