展會信息港展會大全

濫用公眾人物聲音惡搞,AI技術應用“玩過界”被質疑
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-28 08:13:34   瀏覽:597次  

導讀:劃重點 01短視頻平臺上涌現(xiàn)了大量某知名企業(yè)家吐槽的視頻,實際上是由網(wǎng)友利用AI軟件采集原音生成的配音。 02AI技術已能高度還原音頻樣本聲音,達到人耳和其他鑒定方式難以區(qū)分的程度。 03然而,濫用他人聲音制作AI語音產(chǎn)品,尤其是借用公眾人物的聲音,可能...

劃重點

01短視頻平臺上涌現(xiàn)了大量某知名企業(yè)家吐槽的視頻,實際上是由網(wǎng)友利用AI軟件采集原音生成的配音。

02AI技術已能高度還原音頻樣本聲音,達到人耳和其他鑒定方式難以區(qū)分的程度。

03然而,濫用他人聲音制作AI語音產(chǎn)品,尤其是“借用”公眾人物的聲音,可能引起誤解,侵害個人信息安全和網(wǎng)絡空間生態(tài)秩序。

04專家建議,法律法規(guī)和治理手段要跟上科技發(fā)展的步伐,對AI技術的應用進行明確的約束,引導科技向善。

05短視頻平臺應盡到相關義務,對AI生成內容建立甄別和追蹤的機制,及時對偽造內容進行標識。

以上內容由騰訊混元大模型生成,僅供參考

從“一眼假”到“真假難辨”再到“深度偽造”,生成一條音頻只需20秒

濫用公眾人物聲音惡搞,AI技術應用“玩過界”被質疑

近日,一些短視頻平臺涌現(xiàn)了大量某知名企業(yè)家吐槽的視頻。在視頻中,該企業(yè)家對堵車、調休、游戲等熱門話題進行了調侃和銳評,甚至還有不雅詞匯穿插其間,引發(fā)網(wǎng)友熱議。

事實上,那些吐槽視頻并非該企業(yè)家本人在發(fā)聲,而是由網(wǎng)友利用AI軟件采集該企業(yè)家原音生成的配音,但逼真的效果讓不少人信以為真。

AI的發(fā)展為生活帶來了許多便利,但一些亂象也引發(fā)質疑。以AI語音合成技術為例,只需要打開軟件、動動手指,一條以假亂真的配音視頻就能新鮮出爐。然而,有的視頻越過了開玩笑的邊界,“偷走”他人聲音進行惡搞、造謠,帶來了惡劣的社會影響。

20秒就能生成一條AI音頻

記者在社交軟件上檢索AI配音發(fā)現(xiàn),不少用戶發(fā)布了相關視頻的生成教程。其中,大部分視頻的配音都源于某擬真語音大模型應用。

在該應用網(wǎng)站上,創(chuàng)作者上傳任意人物的一段音頻作為訓練素材,隨后AI通過學習可克隆出一個聲音角色。網(wǎng)站中的其他用戶只需輸入文本,便可以使用該聲音生成內容。

按照該網(wǎng)站的使用指引,記者添加了上述知名企業(yè)家的聲音角色,輸入一段100字的文本,然后點擊“開始生成”,約20秒,一條與該企業(yè)家聲音相似度極高的AI音頻就生成了。記者發(fā)現(xiàn),截至目前,該聲音角色已被使用79.9萬次,生成字符數(shù)達4455.5萬個。

被“偷走”聲音的公眾人物還有不少。今年9月底,一段據(jù)稱是某直播平臺老板盧某某的酒后錄音在網(wǎng)絡上流傳,整體呈現(xiàn)出盧某某對于消費者的傲慢態(tài)度,以及對相關人士的不尊重表達,為該平臺招致了不小的爭議。后警方調查發(fā)現(xiàn),音頻內容不實,系大模型偽造而成。

一位業(yè)內人士告訴記者,通過模仿音頻樣本的語調、語速、情感、口音、發(fā)聲方式等特征,AI技術已經(jīng)能夠高度還原音頻樣本的聲音,達到人耳和其他鑒定方式難以區(qū)分的程度。

“從早期的‘一眼假’到如今的‘真假難辨’,AI的發(fā)展進入了‘深度偽造’時代。”中國社會科學院大學法學院副教授、互聯(lián)網(wǎng)法治研究中心主任劉曉春向記者表示,在未經(jīng)過授權、未進行標注的情況下,用他人聲音制作AI語音產(chǎn)品,尤其是“借用”公眾人物的聲音,很容易引起誤解,這不僅會侵害個人信息安全,還可能擾亂網(wǎng)絡空間生態(tài)秩序。

濫用他人聲音侵犯人格權

當前,不少網(wǎng)友在合成他人的AI音頻時,僅抱著娛樂心態(tài),并沒有意識到背后隱藏的法律風險。記者注意到,在一條“AI配音教程”視頻的評論區(qū),有學員提問“這樣不侵權嗎”?

博主回復稱:“大家都在做,如果提示違規(guī),刪了就行了。”

對此,北京盈善律師事務所律師張清鑫分析稱,與“肖像”類似,自然人的聲音具有唯一性、獨特性,是自然人人格的重要組成部分,聲音權益是人格權的一種。制作并上傳他人AI音頻的行為,無論是出于商業(yè)目的還是娛樂目的,都已構成對其人格權的侵犯。如果配音內容違法或違反公序良俗,可能侵犯他人的名譽權。

據(jù)了解,今年4月,北京互聯(lián)網(wǎng)法院一審開庭宣判了全國首例AI生成聲音人格權侵權案。該案中,配音師因認為自身作品被短視頻平臺利用AI生成語音產(chǎn)品,嚴重侵犯了自己的聲音權益,將短視頻平臺及制作方等5家公司訴至法院,最終原告獲賠經(jīng)濟損失25萬元。

在審理過程中,被告公司辯稱,人工智能合成后的聲音產(chǎn)品,與自然人聲音在人身權屬性上有所區(qū)別,目前技術都會對人工智能合成聲音進行水印標記,切斷了人工智能合成聲音與自然人聲音之間的聯(lián)系,不會產(chǎn)生對應自然人的人格屬性。而法院認為,AI聲音與原告聲音具有高度一致性,能夠引起一般人產(chǎn)生與原告有關的思想或感情活動,能夠將該聲音聯(lián)系到原告本人。在具備可識別性的前提下,自然人聲音權益的保護范圍可及于AI生成聲音。

“該判決對于厘清和把握AI生成聲音的邊界具有指導意義。”劉曉春說。

治理手段要跟上科技步伐

清華大學新聞與傳播學院新媒體研究中心今年4月發(fā)布的一份研究報告顯示,近一年來,經(jīng)濟與企業(yè)類AI謠言量增長99.91%。受訪專家表示,法律法規(guī)和治理手段要跟上科技發(fā)展的步伐,對AI技術的應用進行明確的約束,引導科技向善。

張清鑫認為,AI語音應用工具提供方不能“置身事外”,而是要把好第一道關,強化對源頭素材的把控和對生成內容的監(jiān)管,完善運營規(guī)則,并在出現(xiàn)問題時積極配合有關部門,追溯違法音頻的生成源頭。

今年9月,國家網(wǎng)信辦發(fā)布的《人工智能生成合成內容標識辦法(征求意見稿)》提出,提供網(wǎng)絡信息內容傳播平臺服務的服務提供者應當采取措施,規(guī)范生成合成內容傳播活動。包括提供必要的標識功能,并提醒用戶主動聲明發(fā)布內容中是否包含生成合成內容等。

“作為內容傳播的服務提供者,短視頻等傳播平臺應盡到相關義務。”劉曉春建議,除了提示用戶進行標識以外,平臺也應對AI生成內容建立甄別和追蹤的機制。如果發(fā)現(xiàn)涉嫌偽造的內容或者接到相關投訴,應當要求內容發(fā)布者及時對偽造內容進行標識,在不標識的情況之下,可以根據(jù)平臺規(guī)則刪除內容,造成嚴重后果的可以進行禁言、封號等處理。(記者 陳曦)

來源:工人日報

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港