在基辛格百歲壽辰前夕,他接受了《經(jīng)濟學人》雜志長達8小時的訪談。在這位期頤老人最后一次訪談中,他反復提及對人工智能的擔憂。作為可能是歷史上最重大、影響最深遠的革命之一,人工智能的興起不但會挑戰(zhàn)人類的認知能力和理解世界的方式,它也在改變著經(jīng)濟模式、社會系統(tǒng)和權(quán)力結(jié)構(gòu),增加全球沖突的不可預測性和復雜性。
這并非基辛格的杞人憂天。事實上,隨著美國《關(guān)于安全、可靠、可信地開發(fā)和使用人工智能的行政命令》、歐盟《人工智能法》等規(guī)范的出臺,人工智能的安全治理已經(jīng)成為各國高度關(guān)注并已然付諸行動的議題。在此背景下,全國網(wǎng)絡安全標準化技術(shù)委員會于9月9日發(fā)布的《人工智能安全治理框架》1.0版可謂是針對人工智能安全問題提出的中國方案。
《人工智能安全治理框架》1.0版以風險治理為理念,立足于人工智能技術(shù)特性,首先提出了包容審慎、確保安全;風險導向、敏捷治理;技管結(jié)合、協(xié)同應對;開放合作、共治共享等四項原則。進而遵循風險識別、技術(shù)應對、綜合治理的邏輯,針對人工智能系統(tǒng)設計、研發(fā)、訓練、測試、部署、使用、維護等生命周期各環(huán)節(jié)的安全風險,要求模型算法研發(fā)者、人工智能服務提供者、重點領域使用者各司其職,在訓練數(shù)據(jù)、算力設施、模型算法、產(chǎn)品服務、應用場景等方面積極采取技術(shù)應對措施的同時,還應與政府部門、行業(yè)協(xié)會、社會組織一道,共建多方參與的人工智能安全風險綜合治理制度。
可以預見,《人工智能安全治理框架》1.0版的實施,將為培育安全、可靠、公平、透明的人工智能技術(shù)研發(fā)和應用生態(tài),促進人工智能的健康發(fā)展和規(guī)范應用,提供基礎性、框架性技術(shù)指南。同時,也有助于在全球范圍推動人工智能安全治理國際合作,推動形成具有廣泛共識的全球人工智能治理體系,確保人工智能技術(shù)造福于人類。
在人工智能發(fā)展如火如荼的背景下,《人工智能安全治理框架》1.0版的發(fā)布可謂恰逢其時。不過,若要這部軟法發(fā)揮最大效用,可能還需要再問如下三個問題。
如何準確評估人工智能的風險?
與之前《生成式人工智能服務安全基本要求》(TC260-003)聚焦于語料安全和模型生成內(nèi)容安全不同,《人工智能安全治理框架》1.0版從內(nèi)生安全風險與應用安全風險兩大方面,全面梳理了模型算法安全風險、數(shù)據(jù)安全風險、系統(tǒng)安全風險、應用安全風險等風險,并逐一描述和細化了各種風險表現(xiàn)。
不過,羅列風險只是第一步。根據(jù)風險規(guī)制的基本原理,風險問題包含三個先后相繼的問題:有什么樣的風險?發(fā)生風險的可能性有多大?可能的后果是什么?實際上,只有回答了后面兩個問題,才能準確評估人工智能風險的實際大小,也才能發(fā)展出更可操作的風險治理措施。正因如此,未來有必要在識別風險類型的基礎上,找到穩(wěn)健且可驗證的可靠指標與衡量方法。由于人工智能風險的復雜性,在國家標準層面,應始終堅持科學原則(scientific principle),充分考慮評估的可信度、適用性,確保風險評估的結(jié)果是由確實的證據(jù)和科學的方法推導而出,盡可能排除政治介入和民粹干擾。
如何為人工智能的風險排序?
評估風險是為了應對風險。但應對風險的資源永遠是稀缺的,因此一個有效的風險回應機制是認識到風險并非都是同等的,從而根據(jù)人工智能風險類別的差異性,預先構(gòu)建規(guī)制工具箱并準備相應工具,以提升規(guī)制的針對性和精準性,從而更有效的分配資源,而這正是敏捷治理的意義。
歐盟《人工智能法》將風險分為不可接受風險類、高風險類、有限風險類、最小風險類四個級別。每個類別適用不同程度的監(jiān)管要求。高風險的人工智能系統(tǒng)須遵守更嚴格的合規(guī)要求,而構(gòu)成不可接受風險的人工智能系統(tǒng)則被禁止。例如,高風險的人工智能就包括用于生物識別和分類、關(guān)鍵基礎設施管理、教育和職業(yè)培訓、就業(yè)、員工管理和獲得自營職業(yè)機會、獲得和享受基本私人服務及基本公共服務、執(zhí)法活動、移民和邊境控制管理、司法和民主程序的人工智能。
在仔細評估各種風險后,各方就需要對特定使用環(huán)境中最嚴重的人工智能風險,給予最緊迫的優(yōu)先級和最全面的風險管理流程。如果存在迫在眉睫、嚴重傷害正在發(fā)生或存在災難性風險,那么相關(guān)開發(fā)和部署應立即停止,直到風險得到充分管理。實際上,我國兩部人工智能的專家建議稿均認識到人工智能風險分級的重要性!度斯ぶ悄苁痉斗2.0(專家建議稿)》提出:國家人工智能主管機關(guān)根據(jù)人工智能在經(jīng)濟社會發(fā)展中的重要程度,以及一旦遭到攻擊、篡改、破壞或者非法獲娶非法利用,對國家安全、公共利益、社會穩(wěn)定、環(huán)境保護,或者個人、組織合法權(quán)益、經(jīng)濟秩序造成的危害程度確立人工智能產(chǎn)品、服務負面清單,開展人工智能負面清單內(nèi)產(chǎn)品、服務的研發(fā)、 提供活動前,應當取得國家人工智能主管機關(guān)的行政許可!度斯ぶ悄芊ǎ▽W者建議稿)》建議就“對個人的生命、自由、人格尊嚴等人身權(quán)益有重大影響的人工智能,以及在算力、參數(shù)、使用規(guī)模等方面達到一定級別的基礎模型”等“關(guān)鍵人工智能”開展特殊管理。
展望未來,如何為人工智能的分級管理提供可行方案,可能是全國網(wǎng)絡安全標準化技術(shù)委員會亟待解決的又一“關(guān)鍵問題”。
如何劃定人工智能風險的容忍程度?
“無危則安,無缺則全”,在中國傳統(tǒng)觀念中,“安全”往往意味著沒有危險且盡善盡美。然而,在當今風險社會(risksociety)中,這種絕對的安全觀念已經(jīng)不合時宜。正如德國社會學巨擘盧曼所洞見的:我們生活在一個除了冒險別無選擇的社會。無時不在、無處不在的風險彌散在周圍,更重要的是,我們作為集體或個人做出的每個決定、每種選擇、每種行動同時也在制造著新的風險。這從反面證明了風險的絕對性:人們用于應對風險的規(guī)制方式,本身就是滋生新型風險的罪魁禍首。由于現(xiàn)代社會前所未有的復雜與抽象,無論是冒險取向還是安全取向的制度,都可能蘊含運轉(zhuǎn)失靈或決策失誤的風險。這一規(guī)律早已被習近平總書記在2016年“全國網(wǎng)絡安全和信息化工作會議”所指明:網(wǎng)絡安全是動態(tài)的而不是靜態(tài)的,開放的而不是封閉的,相對的而不是絕對的,因此一定避免不計成本追求絕對安全,那樣不僅會背上沉重負擔,甚至可能顧此失彼。
同樣,試圖完全消除人工智能的風險是對安全不切實際的期望,這不但可能浪費稀缺資源,更嚴重的是,可能導致不必要地犧牲了發(fā)展。在全球人工智能突飛猛進的背景下,不發(fā)展可能就是最大的不安全。為此,我們有必要借鑒英國金融服務局“合理期待”(ReasonableExpectations)的規(guī)制經(jīng)驗,與其說“零失誤”的安全是人工智能治理的目標,毋寧說是“可容忍的風險”才是我們的目標。
所謂“可容忍的風險”,就是社會各方為了獲得人工智能的利益而愿意承擔的風險。這一風險的閾值固然受到人工智能的技術(shù)發(fā)展、應用場景、社會規(guī)范的影響,但歸根到底,它有賴于企業(yè)、學界、技術(shù)專家、社會公眾和政府部門就如何實現(xiàn)人工智能風險與收益的平衡達成共識。作為體現(xiàn)行業(yè)聲音的規(guī)范指南,我們期待未來的《人工智能安全治理框架》2.0版能夠明確提出適用于特定領域、行業(yè)的可容忍風險標準,并在此基礎上,通過一個可行、漸進和包容的“公共討論議程”,遵循多利益相關(guān)方的商談邏輯和議題形成程序,最終凝聚“可容忍的風險”的共識。
毫無疑問,作為顛覆性的科技革命,人工智能帶來的挑戰(zhàn)也是顛覆性的。但我們不能沉湎于人工智能風險的恐懼中,而應積極和自信地構(gòu)建以人為本的人工智能,寬容和容忍科技發(fā)展的不成熟和不安全。因為,只有為創(chuàng)新提供最大的空間,才能實現(xiàn)人工智能造福人類的偉大目標。
(作者系對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任)
許可
責編 侯明輝