展會信息港展會大全

生成式人工智能服務(wù)管理辦法征求意見,AI語言模型如何規(guī)制?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-04-15 14:35:31   瀏覽:9601次  

導(dǎo)讀:就在阿里巴巴宣布所有產(chǎn)品將接入AI大語言模型通義千問的同一天,4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱征求意見稿),并公開征求意見。 近期,互聯(lián)網(wǎng)大廠相繼推出AI語言模型,從百度的文心一言到阿里巴巴的...

就在阿里巴巴宣布所有產(chǎn)品將接入AI大語言模型“通義千問”的同一天,4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱“征求意見稿”),并公開征求意見。

近期,互聯(lián)網(wǎng)大廠相繼推出AI語言模型,從百度的文心一言到阿里巴巴的通義千問。而另一邊,ChatGPT引發(fā)的個人和商業(yè)數(shù)據(jù)泄露,也引發(fā)爭議。

以ChatGPT為代表的人工智能生成內(nèi)容(AIGC)創(chuàng)新技術(shù)如何規(guī)制?征求意見稿對隱私、知識產(chǎn)權(quán)、肖像權(quán)、名譽(yù)權(quán)、訓(xùn)練數(shù)據(jù)、人工標(biāo)注、標(biāo)識、不公平競爭、防沉迷等提出了規(guī)范。

生成式人工智能服務(wù)管理辦法征求意見,AI語言模型如何規(guī)制?

↑圖據(jù)視覺中國

院士擔(dān)心形成知識繭房?

辦法:要進(jìn)行安全評估和備案

此前,中國工程院院士、前北京郵電大學(xué)校長、網(wǎng)絡(luò)空間安全專家方濱興接受紅星新聞采訪時指出,要警惕的是,當(dāng)大家習(xí)慣于ChatGPT,什么都問它,它什么都解答,就會形成知識繭房,甚至三觀都會被左右。這對各國政府來說都是一個大問題。

征求意見稿規(guī)定,利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。

方濱興4月11日接受紅星新聞采訪時表示,征求意見稿回應(yīng)了公眾的一些擔(dān)憂,起到了全面規(guī)范的作用,規(guī)定得越詳細(xì),越好操作。

奇安信集團(tuán)副總裁張卓接受紅星新聞采訪時認(rèn)為,征求意見稿的發(fā)布,意味著國家對AIGC的監(jiān)管治理已經(jīng)提上日程。具體來看,首先,征求意見稿強(qiáng)調(diào)了安全評估和算法備案的前提性和必要性;其次,強(qiáng)調(diào)了服務(wù)提供者需確保數(shù)據(jù)安全和個人信息保護(hù)合規(guī),尤其是隱私保護(hù);最后,夯實(shí)了違規(guī)責(zé)任的處罰措施,包含追究刑事責(zé)任。

生成式人工智能服務(wù)管理辦法征求意見,AI語言模型如何規(guī)制?

↑2023年3月24日,湖北宜昌,網(wǎng)民展示手機(jī)上有關(guān)百度“文心一言”的信息。圖據(jù)視覺中國

防止歧視,防止生成虛假信息

防止損害肖像權(quán)、名譽(yù)權(quán)和個人隱私

征求意見稿提出了AIGC產(chǎn)品服務(wù)所需滿足的五點(diǎn)基本要求,包括體現(xiàn)社會主義核心價值觀,維護(hù)國家安全、經(jīng)濟(jì)秩序與社會秩序等;采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視;尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實(shí)施不公平競爭;采取措施防止生成虛假信息;尊重他人合法利益,防止損害肖像權(quán)、名譽(yù)權(quán)和個人隱私。

此外,服務(wù)提供者不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進(jìn)行畫像,不得向他人提供用戶輸入信息。

ChatGPT的“信口胡謅”曾受到關(guān)注,這是現(xiàn)有模型固有的一個缺陷。

方濱興表示,對于有害和虛假信息,現(xiàn)在都有相應(yīng)的檢測、判斷技術(shù),服務(wù)提供者應(yīng)對模型生成的信息進(jìn)行選擇、過濾、矯正。他進(jìn)一步指出,“采取措施”和措施不足是兩個概念,“不是說過濾不了有害信息,互聯(lián)網(wǎng)就不發(fā)展”,服務(wù)提供者應(yīng)按法律法規(guī)要求采取措施。

從Deepfake技術(shù)2019年爆紅以來,到去年起興起的Stable Diffusion技術(shù)、MidJourney,換臉技術(shù)、圖像生成技術(shù)就引發(fā)了對肖像權(quán)、名譽(yù)權(quán)的巨大爭議。

由于ChatGPT會保留用戶輸入數(shù)據(jù)以進(jìn)一步訓(xùn)練自身,其引發(fā)嚴(yán)重的隱私和數(shù)據(jù)安全擔(dān)憂。日前,ChatGPT被曝數(shù)據(jù)泄漏,多名用戶反饋,看到了其他用戶與ChatGPT的對話記錄以及姓名、郵箱、信用卡最后四位數(shù)字等。當(dāng)?shù)貢r間4月5日,OpenAI發(fā)布聲明宣布了六方面整改措施,包括“保護(hù)兒童”“尊重隱私”等。

該技術(shù)的使用對商業(yè)機(jī)密也構(gòu)成威脅。近日,三星被曝芯片機(jī)密代碼遭ChatGPT泄露,引入不到20天就出3起事故。

當(dāng)?shù)貢r間3月31日,出于隱私等方面的考慮,意大利個人數(shù)據(jù)保護(hù)局宣布禁用ChatGPT,并要求OpenAI在20天內(nèi)按要求提供整改措施。

生成式人工智能服務(wù)管理辦法征求意見,AI語言模型如何規(guī)制?

↑文心一言 圖據(jù)視覺中國

AIGC帶來安全風(fēng)險

專家:全球范圍內(nèi)新興領(lǐng)域立法速度加快

目前,全球監(jiān)管部門都在關(guān)注AIGC帶來的安全風(fēng)險。據(jù)《華爾街日報》報道,拜登政府已經(jīng)開始研究是否需要對ChatGPT等人工智能工具實(shí)行檢查,美國商務(wù)部就相關(guān)問責(zé)措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序。

“新興領(lǐng)域立法速度加快,已經(jīng)成為了世界各國的一個常態(tài),歐盟和美國都在這一周內(nèi),提出了對生成式人工智能的治理。我國這次在短時間內(nèi)提出了生成式人工智能的管理辦法,并公開征求意見,在社會范圍內(nèi)集思廣益。”4月11日,中國政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒表示,公開征求意見,進(jìn)一步彰顯了加快推進(jìn)人工智能等新興領(lǐng)域立法步伐,體現(xiàn)新技術(shù)新應(yīng)用發(fā)展到哪里,法治建設(shè)就要覆蓋到哪里,在當(dāng)前各類生成式人工智能服務(wù)廣受關(guān)注、千帆競發(fā)之際,將起到凝聚共識和規(guī)范指引作用。

我國對網(wǎng)絡(luò)安全、數(shù)據(jù)安全等正逐漸形成完備的法律法規(guī)體系。2020年的《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》明確提出,對基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等技術(shù),具有媒體屬性或社會動員能力的音視頻信息服務(wù)展開安全評估,對非真實(shí)音視頻信息進(jìn)行標(biāo)識。

我國2022年3月開始實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,就把生成合成類算法作為五類算法推薦技術(shù)之一納入監(jiān)管。

繼算法之后,深度合成技術(shù)迎來單獨(dú)規(guī)范。國家網(wǎng)信辦2022年1月對《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》征求意見,今年1月10日,該規(guī)定開始實(shí)施。

如今,在AIGC爆火之際,該領(lǐng)域也將迎來監(jiān)管文件。

張凌寒此前撰文提出,我國應(yīng)形成“算法治理深度合成治理人工智能治理”的迭代路徑,為我國未來通用人工智能立法做準(zhǔn)備。征求意見稿制度設(shè)計,一方面延續(xù)了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》關(guān)于標(biāo)識、評估、備案等既有制度安排,另一方面就訓(xùn)練數(shù)據(jù)、人工標(biāo)注等提出了新的合規(guī)要求,相比于《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,體現(xiàn)出監(jiān)管邏輯更新和制度體系迭代的新趨勢。

服務(wù)提供者承擔(dān)內(nèi)容生產(chǎn)者責(zé)任

用戶不得惡意發(fā)帖跟帖

征求意見稿明確AIGC產(chǎn)品服務(wù)提供者承擔(dān)生成內(nèi)容“生產(chǎn)者”的責(zé)任,僅提供可編程接口等方式支持他人自行生成內(nèi)容也不能免去此責(zé)任;涉及個人信息的,承擔(dān)個人信息處理者的法定責(zé)任。

張凌寒表示,“內(nèi)容生產(chǎn)者責(zé)任”體現(xiàn)了網(wǎng)信部門對內(nèi)容安全責(zé)任分配的高度關(guān)注。此前張凌寒提出,生成式人工智能的技術(shù)產(chǎn)出鏈條上,技術(shù)開發(fā)者是關(guān)鍵,因而應(yīng)在生成式人工智能的技術(shù)鏈上進(jìn)行可行性的責(zé)任分配,包括對技術(shù)開發(fā)者提出更嚴(yán)格的要求,對部署者結(jié)合其應(yīng)用場景設(shè)置義務(wù),在用戶層面進(jìn)一步細(xì)化管理。

征求意見稿還規(guī)定,提供者應(yīng)當(dāng)指導(dǎo)用戶理性、合法使用內(nèi)容。征求意見稿更規(guī)定,提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評,實(shí)施不正當(dāng)?shù)纳虡I(yè)營銷等,應(yīng)當(dāng)暫;蛘呓K止服務(wù)。

那么,新技術(shù)爆發(fā)之際,政府如何在管制與創(chuàng)新之間平衡?

“管制和創(chuàng)新,也即安全和發(fā)展,是網(wǎng)絡(luò)立法的永恒命題。一定意義上,不發(fā)展就是最大的不安全。”

張凌寒表示,掌握人工智能治理的話語權(quán)、規(guī)則制定權(quán),搶先形成新的國家競爭優(yōu)勢,已經(jīng)成為世界不同法域的努力目標(biāo)。我國在個人信息保護(hù)和數(shù)據(jù)立法領(lǐng)域與歐盟、美國并行,在算法治理和深度合成治理領(lǐng)域則成為了一定意義上的領(lǐng)跑者。以促進(jìn)ChatGPT為代表的生成式人工智能健康發(fā)展為契機(jī),積極構(gòu)建人工智能治理制度,有助于形成我國真正的制度優(yōu)勢。

紅星新聞記者 胡伊文 吳陽 北京報道

責(zé)編 官莉

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港