劃重點(diǎn)
01國家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》面向社會(huì)公開征求意見,旨在規(guī)范AI生成合成內(nèi)容。
02《辦法》擬規(guī)定AI生成合成內(nèi)容在顯著位置作出標(biāo)識,以降低虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)。
03為此,《標(biāo)識方法》擬明確各類AI生成合成內(nèi)容的具體標(biāo)識方式,包括視頻內(nèi)容的顯式標(biāo)識和音頻內(nèi)容的顯式標(biāo)識等。
04專家建議明確未履行標(biāo)識義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任,并推動(dòng)行業(yè)自律,建立統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和倫理準(zhǔn)則。
05除此之外,鄭志峰認(rèn)為,制定一部《人工智能法》的契機(jī)已經(jīng)成熟,有助于建立覆蓋人工智能全生命周期的、統(tǒng)一的監(jiān)管規(guī)則。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
人工智能(AI)生成合成內(nèi)容的逼真程度已經(jīng)讓普通人難以辨別。多方人士曾提議,加快規(guī)范AI生成合成內(nèi)容。“內(nèi)容標(biāo)識”是目前國際上較為通用的做法。
日前,國家網(wǎng)信辦起草的《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》(以下簡稱《辦法》),面向社會(huì)公開征求意見。新京報(bào)記者注意到,與之配套的強(qiáng)制性國家標(biāo)準(zhǔn)《網(wǎng)絡(luò)安全技術(shù) 人工智能生成合成內(nèi)容標(biāo)識方法》(以下簡稱《標(biāo)識方法》)同步在全國標(biāo)準(zhǔn)信息公共服務(wù)平臺公開征求意見。
真假難辨,“AI換聲”“AI換臉”詐騙案件量正在增加
《辦法》擬規(guī)定什么?簡單來說,AI生成合成的內(nèi)容要在顯著位置作出標(biāo)識,也就是要給它們打上“專屬水印”。
給AI生成合成內(nèi)容打水印為何如此重要,需要單獨(dú)出臺文件加以規(guī)制?受訪者認(rèn)為,這與AI應(yīng)用帶來的虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)有著直接關(guān)系。
生成式人工智能的應(yīng)用落地不過是近兩年的事情,然而利用AI實(shí)施詐騙、侵權(quán)等違法犯罪的數(shù)量正在快速增加。記者注意到,多地公安機(jī)關(guān)曾發(fā)布過相關(guān)提醒,司法機(jī)關(guān)也發(fā)布了多起利用AI實(shí)施犯罪的典型案例。部分案例經(jīng)由媒體報(bào)道和平臺傳播,引發(fā)不少人的擔(dān)憂甚至是恐慌。
“AI詐騙正在全國爆發(fā)”的詞條一度登上熱搜,一時(shí)討論聲四起。據(jù)浙江省科普聯(lián)合會(huì)發(fā)布的文章,AI詐騙的類型包括:語音合成詐騙、視頻/圖像合成詐騙、聊天機(jī)器人詐騙、數(shù)據(jù)操控與偽造。其所依托的技術(shù)主要為自然語言處理和機(jī)器學(xué)習(xí)。
上述前兩種類型便是很多人聽說過的“AI換聲”“AI換臉”!掇k法》提出,對于AI生成合成的音頻,在起始、末尾或中間適當(dāng)位置添加語音提示或音頻節(jié)奏提示等標(biāo)識;AI生成合成的視頻,在起始畫面和視頻播放周邊的適當(dāng)位置添加顯著的提示標(biāo)識,可在視頻末尾和中間適當(dāng)位置添加顯著的提示標(biāo)識。對于AI生成合成的文本、圖片等信息,《辦法》也擬作出相應(yīng)規(guī)定。
除了上述可被用戶明顯感知的顯式標(biāo)識,《辦法》還擬對隱式標(biāo)識的添加予以明確,提出服務(wù)提供者在生成合成內(nèi)容的文件元數(shù)據(jù)中添加隱式標(biāo)識,隱式標(biāo)識包含生成合成內(nèi)容屬性信息、服務(wù)提供者名稱或編碼、內(nèi)容編號等制作要素信息。
《辦法》擬作何具體規(guī)定?解決什么問題?
具體來說,《辦法》擬對服務(wù)提供者、網(wǎng)絡(luò)信息內(nèi)容傳播平臺的服務(wù)提供者、互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺、用戶分別規(guī)定相應(yīng)的責(zé)任義務(wù)。
公開征求意見的通知。圖源國家網(wǎng)信辦官網(wǎng)
北京大成律師事務(wù)所高級合伙人肖颯解釋,服務(wù)提供者即利用生成式人工智能技術(shù)提供生成式人工智能服務(wù),利用算法技術(shù)提供信息服務(wù)、深度合成服務(wù)的組織、個(gè)人。
對服務(wù)提供者,《辦法》提出在生成合成內(nèi)容時(shí)主動(dòng)添加顯式標(biāo)識或隱式標(biāo)識,執(zhí)行強(qiáng)制性國家標(biāo)準(zhǔn);在用戶服務(wù)協(xié)議中明確說明生成合成內(nèi)容標(biāo)識的方法、樣式等,并提示用戶仔細(xì)閱讀并理解相關(guān)的標(biāo)識管理要求。
對于提供網(wǎng)絡(luò)信息內(nèi)容傳播平臺的服務(wù)提供者,如AI聊天網(wǎng)站,《辦法》特別提出,在處理和核驗(yàn)生成合成內(nèi)容時(shí),平臺需要承擔(dān)核驗(yàn)標(biāo)識的責(zé)任。
對于互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺,如應(yīng)用商店,《辦法》提出,在應(yīng)用程序上架時(shí),應(yīng)當(dāng)核驗(yàn)服務(wù)提供者是否按要求提供生成合成內(nèi)容標(biāo)識功能。
用戶在上傳生成合成內(nèi)容時(shí),應(yīng)當(dāng)主動(dòng)聲明并使用平臺提供的標(biāo)識功能作出標(biāo)識,不得惡意刪除、篡改、偽造、隱匿生成合成內(nèi)容標(biāo)識。
西南政法大學(xué)科技法學(xué)研究院副院長、教授鄭志峰認(rèn)為,通過規(guī)范標(biāo)識可以幫助公眾準(zhǔn)確區(qū)分AI生成合成內(nèi)容與人類創(chuàng)作內(nèi)容,提升信息透明度,維護(hù)信息生態(tài)的真實(shí)性,保障公眾的知情權(quán)。通過標(biāo)識還可追溯生成內(nèi)容的來源,明確責(zé)任主體。
他指出,通過標(biāo)識內(nèi)容可以降低虛假宣傳、欺詐等社會(huì)風(fēng)險(xiǎn)。肖颯同樣指出,AI生成合成內(nèi)容可能被用于制造社會(huì)恐慌、傳播謠言或?qū)嵤┢渌欠ɑ顒?dòng),通過強(qiáng)制標(biāo)識,可以有效地控制這些行為,維護(hù)社會(huì)穩(wěn)定。
2022年以來,國家網(wǎng)信辦等部門發(fā)布的文件中,相繼明確對符合要求的AI生成合成內(nèi)容作出標(biāo)識,為何還要單獨(dú)制定《辦法》?
鄭志峰指出,之前的文件只是作出原則性要求,沒有深入討論具體的標(biāo)識方式、范圍和技術(shù)標(biāo)準(zhǔn)。在此背景下,《辦法》的進(jìn)一步規(guī)定可以消除標(biāo)識標(biāo)準(zhǔn)的模糊性。具體來說,《辦法》主要明確責(zé)任主體和義務(wù),《標(biāo)識方法》則提供具體操作細(xì)節(jié)。
“這種雙重保障機(jī)制將確保標(biāo)識要求不僅有依據(jù),還有技術(shù)執(zhí)行路徑,具備可操作性,確保規(guī)定真正落地,而不只是停留在表面要求上。”鄭志峰向記者解釋。
此舉能防范日益突出的AI詐騙嗎?
《標(biāo)識方法》這一強(qiáng)制性國家標(biāo)準(zhǔn)擬明確各類AI生成合成內(nèi)容的具體標(biāo)識方式。其中,視頻內(nèi)容的顯式標(biāo)識應(yīng)采用文字提示。
具體而言,應(yīng)同時(shí)包含人工智能要素含“人工智能”或“AI”,表明使用人工智能技術(shù);包含生成合成要素含“生成”和/或“合成”,表明內(nèi)容制作方式為生成和/或合成。
視頻內(nèi)容顯式標(biāo)識示例。圖源《標(biāo)識方法》
音頻內(nèi)容的顯式標(biāo)識應(yīng)采用語音標(biāo)識或音頻節(jié)奏標(biāo)識。語音標(biāo)識應(yīng)同時(shí)包含人工智能要素含“人工智能”或“AI”,表明使用人工智能技術(shù);包含生成合成要素含“生成”和/或“合成”,表明內(nèi)容制作方式為生成和/或合成。
音頻節(jié)奏標(biāo)識應(yīng)為“短長 短短”的節(jié)奏!稑(biāo)識方法》注釋稱,“短長 短短”節(jié)奏為“AI”的摩斯碼表示。
音頻內(nèi)容顯式標(biāo)識示例。圖源《標(biāo)識方法》
以“AI換臉”詐騙為例,肖颯分析,根據(jù)《辦法》和《標(biāo)識方法》要求,潛在受害人應(yīng)該能夠在視頻中看到顯著標(biāo)識,提示該視頻是AI生成合成內(nèi)容。
具體來說:視頻中可能會(huì)有明顯的文字提示,如“本視頻為合成內(nèi)容”,或者視頻角落處有明顯的標(biāo)識符號,如“人工智能生成合成”;標(biāo)識應(yīng)當(dāng)放置在視頻的顯眼位置,如角標(biāo)、橫幅等,以便用戶一眼就能注意到;標(biāo)識的顏色和字型應(yīng)當(dāng)足夠醒目,以便與視頻背景區(qū)分開;如果視頻支持交互功能,在用戶嘗試播放或下載視頻時(shí),系統(tǒng)可能會(huì)彈出提示框,告知用戶該視頻是AI生產(chǎn)合成的。
“從效果來看,可以預(yù)測,《辦法》和《標(biāo)識方法》的實(shí)施有助于提高AI生成合成內(nèi)容的透明度,降低老百姓遭AI詐騙的風(fēng)險(xiǎn)。”肖颯告訴記者。
鄭志峰認(rèn)為,標(biāo)識可以起到區(qū)分人機(jī)界限的作用,同時(shí)具有警示功能,提醒用戶慎重對待AI生成合成內(nèi)容,避免上當(dāng)受騙。“當(dāng)然,標(biāo)識的作用也是有局限性的,無法應(yīng)對所有的問題。例如,AI生成合成內(nèi)容是否侵犯他人的著作權(quán)、人格權(quán),并非標(biāo)識可以解決的。”
專家建議:明確未履行標(biāo)識義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任
《辦法》第13條擬規(guī)定,未對AI生成合成內(nèi)容作出標(biāo)識造成嚴(yán)重后果的,由網(wǎng)信等有關(guān)主管部門按照有關(guān)法律、行政法規(guī)、部門規(guī)章的規(guī)定予以處罰。
鄭志峰指出,《辦法》擬作出的責(zé)任追究規(guī)定較為籠統(tǒng),責(zé)任機(jī)制不夠完善,沒有明確未履行標(biāo)識義務(wù)的責(zé)任規(guī)則,特別是民事侵權(quán)責(zé)任。
“《辦法》僅規(guī)定‘未對生成合成內(nèi)容進(jìn)行標(biāo)識造成嚴(yán)重后果的’依法進(jìn)行處罰。但對第10條所涉及的使用者的行為,未規(guī)定懲罰措施。”肖颯指出,有的使用者惡意濫用AI生成合成內(nèi)容,通過不正當(dāng)標(biāo)識手段損害他人合法權(quán)益、散布虛假信息,建議補(bǔ)充處罰措施或列明可供援引的其他法律規(guī)范。
此外,鄭志峰提出,標(biāo)識適用于AI生成合成內(nèi)容,對于人機(jī)協(xié)作生成合成的內(nèi)容是否適用并不明確。例如,AI生成一首唐詩,用戶對內(nèi)容作了很小的修改,是否需要標(biāo)識并不清楚。
總的來說,內(nèi)容標(biāo)識是防范生成式人工智能應(yīng)用風(fēng)險(xiǎn)的重要一步,有助于提高透明度,幫助用戶識別AI生成合成內(nèi)容。
“但這只是多層次防控體系的一部分。”肖颯認(rèn)為,要想真正規(guī)避風(fēng)險(xiǎn),還應(yīng)細(xì)化法律法規(guī),建立行業(yè)自律標(biāo)準(zhǔn),如明確界定法律責(zé)任,特別是版權(quán)、隱私保護(hù)等問題;推動(dòng)行業(yè)自律,建立統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和倫理準(zhǔn)則,引導(dǎo)企業(yè)合理合法使用AI技術(shù)。
在鄭志峰看來,當(dāng)前我國人工智能立法呈現(xiàn)明顯的場景化特征,如關(guān)注自動(dòng)駕駛、人臉識別、生成式人工智能、深度合成等具體場景,且立法的級別不夠高。
“隨著我國人工智能產(chǎn)業(yè)的發(fā)展,人工智能立法儲備的豐富,制定一部《人工智能法》的契機(jī)已經(jīng)成熟。相較于分散的部門規(guī)章,《人工智能法》可以系統(tǒng)明確人工智能各方權(quán)利、義務(wù)、責(zé)任,建立起覆蓋人工智能全生命周期的、統(tǒng)一的監(jiān)管規(guī)則,避免場景化立法存在的重復(fù)立法和監(jiān)管盲區(qū)問題,具有更強(qiáng)的適應(yīng)性。”鄭志峰認(rèn)為。
新京報(bào)記者 行海洋
編輯 張牽 校對 張彥君