展會信息港展會大全

三部門發(fā)布“深度合成”技術(shù)新規(guī),為元宇宙、人臉合成等公司劃紅線
來源:互聯(lián)網(wǎng)   發(fā)布日期:2022-12-14 10:19:21   瀏覽:4836次  

導(dǎo)讀:記者 | 姜菁玲 編輯 | 12月11日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《規(guī)定》),自2023年1月10日起施行。 深度合成技術(shù)涵蓋了內(nèi)容合成、人臉合成、語音合成以及虛擬人全身合成等技術(shù)類型,...

記者 | 姜菁玲

編輯 |

12月11日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《規(guī)定》),自2023年1月10日起施行。

深度合成技術(shù)涵蓋了內(nèi)容合成、人臉合成、語音合成以及虛擬人全身合成等技術(shù)類型,如今大熱的AI作畫、AI創(chuàng)作、AI換臉以及虛擬人制作等,都屬于深度合成技術(shù)支持下的應(yīng)用。

12月12日發(fā)布的《

對于深度合成技術(shù)的監(jiān)管,此前在《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等法規(guī)中均有提及,而《規(guī)定》則對深度合成內(nèi)容更有針對性地進(jìn)行規(guī)制,標(biāo)志著監(jiān)管部門針對互聯(lián)網(wǎng)信息內(nèi)容監(jiān)管版圖的進(jìn)一步細(xì)化。

“和之前相對碎片化的法規(guī)相比,新規(guī)的針對性非常強(qiáng),且全鏈條管理。”世輝律師事務(wù)所合伙人王新銳對界面新聞記者表示,《規(guī)定》通過一系列的管理制度要求來管控深度合成帶來的風(fēng)險(xiǎn)。

深度合成服務(wù)提供者主體責(zé)任被明確規(guī)定

《規(guī)定》對深度合成服務(wù)提供者主體責(zé)任進(jìn)行了明確規(guī)定!兑(guī)定》強(qiáng)調(diào),任何人或組織不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,或從事法律、行政法規(guī)禁止的活動。

《規(guī)定》同時(shí)要求,深度合成服務(wù)者需要采取技術(shù)或者人工方式對輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核,管理深度合成內(nèi)容,并建立辟謠機(jī)制,并且建立健全用戶注冊、算法機(jī)制機(jī)理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度。

“目前來看,對于提供深度合成服務(wù)的創(chuàng)業(yè)公司來說影響較大,因?yàn)樾乱?guī)明顯抬高了合規(guī)要求和合規(guī)成本。”世輝律師事務(wù)所合伙人王新銳表示。

一位人工智能行業(yè)人士對界面新聞記者稱,《規(guī)定》雖然目前只做了相對寬泛的限制,但是至少未來有不法分子利用AI從事不法行為時(shí)能夠有依據(jù)可以引用。

在具體的項(xiàng)目中,該人士提及,為滿足合規(guī)要求,項(xiàng)目可能需要進(jìn)一步調(diào)試各類圖像/文字生成模型,保證模型不會輸出暴恐色情內(nèi)容、不會被人利用制作虛假圖像(換臉)等。

另外, 對于新規(guī)所強(qiáng)調(diào)的“具有輿論屬性或者社會動員能力的深度合成服務(wù)提供者,應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行備案和變更、注銷備案手續(xù)。”

王新銳律師提到,之前完成了算法備案的公司,大多數(shù)為大型互聯(lián)網(wǎng)公司。在為這些企業(yè)提供算法備案的相關(guān)協(xié)助中,也感受到監(jiān)管的要求較高,企業(yè)需要有比較完善的內(nèi)控機(jī)制,才能滿足相關(guān)文件要求。

使用人臉等生物特征信息需征求同意

此次《規(guī)定》對深度合成服務(wù)提供者和技術(shù)支持者提出了明確的數(shù)據(jù)和技術(shù)管理規(guī)范。其中包括,深度合成服務(wù)提供者和技術(shù)支持者提供人臉、人聲等生物識別信息編輯功能的,應(yīng)當(dāng)提示深度合成服務(wù)使用者依法告知被編輯的個(gè)人,并取得其單獨(dú)同意。

清華大學(xué)公共管理學(xué)院教授、人工智能國際治理研究院副院長梁正向界面新聞記者分析,上述條例實(shí)際上是遵循了《個(gè)人信息保護(hù)法》,明確了在深度合成技術(shù)場景中的隱私保護(hù)。比如在AI換臉應(yīng)用中,《規(guī)定》出臺之后,未經(jīng)他人同意情況下,使用他人照片進(jìn)行AI換臉內(nèi)容制作將是違規(guī)行為。

梁正還提及,在上述條例支持下,人工智能模型的訓(xùn)練不能隨意使用未經(jīng)同意的人臉、聲音等帶有生物特征的數(shù)據(jù)。

在以往,許多人工智能模型的訓(xùn)練通常會經(jīng)歷“全網(wǎng)爬取數(shù)據(jù)”的階段,許多個(gè)人公布在公共社交媒體的照片、視頻可能會在不被告知的情況下被機(jī)器學(xué)習(xí),成為某個(gè)模型的養(yǎng)料!兑(guī)定》中對于人臉、聲音等生物特征信息的使用提出明確的前提條件,一定程度上可以解決這個(gè)問題。

需對深度合成內(nèi)容進(jìn)行標(biāo)識

對深度合成服務(wù)提供者和技術(shù)支持者的數(shù)據(jù)和技術(shù)管理規(guī)范,本質(zhì)上是為了防范日益增長且無法預(yù)料的風(fēng)險(xiǎn)。

當(dāng)下深度合成內(nèi)容制作的技術(shù)門檻越來越低,普通人僅需少量的圖像、視頻、音頻等樣本數(shù)據(jù),利用簡便易用的合成工具,就能模糊真實(shí)和虛擬(虛假)的邊界,甚至利用深度合成技術(shù)制造虛假視頻、虛假音頻進(jìn)行誣陷、誹謗、詐騙、勒索等違法行為。

2017年,有技術(shù)團(tuán)隊(duì)利用AI換臉技術(shù),制作了一則美國前總統(tǒng)奧巴馬侮辱特朗普的視頻,在互聯(lián)網(wǎng)獲得超過480萬余次瀏覽;2022年,《福布斯》雜志報(bào)道稱,一位欺詐者用深度偽造語音冒充客戶,在阿拉伯聯(lián)合酋長國某銀行騙取了3500萬美元。

此次發(fā)布的《規(guī)定》明確提出,深度合成服務(wù)提供者對使用其服務(wù)生成或者編輯的信息內(nèi)容,應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識,并依法依規(guī)保存日志信息。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等具有生成或者顯著改變信息內(nèi)容功能服務(wù)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識,向公眾提示信息內(nèi)容的合成情況,避免公眾混淆或者誤認(rèn);提供非上述深度合成服務(wù)的,應(yīng)當(dāng)提供顯著標(biāo)識功能,并提示使用者可以進(jìn)行顯著標(biāo)識。任何組織和個(gè)人不得采用技術(shù)手段刪除、篡改、隱匿相關(guān)標(biāo)識。

梁正認(rèn)為,標(biāo)識可以讓受眾明白內(nèi)容是否屬于深度合成,一定程度上可以減少深度合成內(nèi)容產(chǎn)生的社會偏差。對于技術(shù)支持公司來說,對輸出內(nèi)容增加標(biāo)識難度不大。不過,對于平臺型公司而言,如何識別出不同上傳者的深度合成內(nèi)容標(biāo)識將成為一個(gè)難點(diǎn)。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港