展會信息港展會大全

人人皆可換臉,眼見不再為真:深度偽造如何影響了我們的安全與道德?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2020-10-30 08:59:52   瀏覽:14362次  

導(dǎo)讀:記者 | 實習(xí)生 胡辰 編輯 | 黃月 1 印度Tehelka雜志社的記者拉娜阿尤布(Rana Ayyub)曾臥底報道了印度古吉特拉暴亂中的教徒屠殺,揭露這一事件中官員的黑幕和不作為,沒想到,等待她的不僅是死亡威脅,還有以其為主角的偽造色情視頻。一些人利用深度偽造技...

記者 | 實習(xí)生 胡辰

編輯 | 黃月

1

印度Tehelka雜志社的記者拉娜阿尤布(Rana Ayyub)曾臥底報道了印度古吉特拉暴亂中的教徒屠殺,揭露這一事件中官員的黑幕和不作為,沒想到,等待她的不僅是死亡威脅,還有以其為主角的偽造色情視頻。一些人利用深度偽造技術(shù),將她的臉與色情片女主角的臉互換,合成粗糙的短視頻,而這一虛假的圖像騙過了成千上萬的人,在臉書、推特和WhatsApp上廣泛傳播,甚至連家人都來問她:“這是你嗎?”隨后阿尤布的家庭地址等個人信息被曝光在網(wǎng)上,她收到了大量強(qiáng)奸威脅。

阿尤布的遭遇并非個例。她的報復(fù)者利用了一鍵生成裸照軟件Deepnude,使用者可以上傳任意一張女性照片,系統(tǒng)將自動“脫去”她的衣服。這項技術(shù)基于數(shù)據(jù)庫中大量裸體照片,可以看起來相當(dāng)真實地將不同人的身體和臉部相匹配。這一網(wǎng)站已經(jīng)被全世界超過100,000名用戶使用,其中有25,000個日活賬號。內(nèi)部調(diào)查顯示,大約63%的使用者表示他們想要在軟件中“脫去”衣服的對象是現(xiàn)實生活中認(rèn)識的女孩。

拉娜阿尤布(來源:Tribune India)

更為棘手的問題是,制作這樣一個色情視頻大約需要個人的491張圖片,照片可以從受害者的社交賬戶上獲取,這無疑降低了騷擾、侵犯和侮辱他人的成本。在未來,制作一個深度偽造視頻甚至不需要大量的原始數(shù)據(jù)色彩,也許一張圖片就足夠創(chuàng)建一個視頻。一個名為StyleGAN的人工智能系統(tǒng)在接受了近70個人體模型肖像的訓(xùn)練后,被用來在一天內(nèi)生成100萬張臉。

近些年來生成虛假圖像所利用的技術(shù)發(fā)展迅速,以往需要高超技巧和高級圖片編輯工具才能實現(xiàn)的效果,在今天變得輕而易舉。在科技發(fā)展的暗面,犯罪的溫床也在擴(kuò)大,看似中立的技術(shù)背后隱藏著深刻的社會結(jié)構(gòu)性偏見。在人類邁入人工智能時代之時,我們又應(yīng)如何與大門口的陌生人共處?

StyleGAN系統(tǒng)的深度偽造效果

01 深度偽造技術(shù)中的偏見與歧視

催生深度偽造的是技術(shù)人員一個簡單的想法,兩個深度學(xué)習(xí)的算法相互疊加,最終創(chuàng)造了一個復(fù)雜的系統(tǒng)。這個系統(tǒng)可以實時匹配面部表情,并無縫切換生成換臉視頻。深度偽造開發(fā)者表示,該技術(shù)正在迅速發(fā)展,他們可以模仿的對象沒有限制。這也就意味著它既可能在明星身上使用,也極有可能用于任何普通人。每一個人都是潛在的目標(biāo)。

人工智能重塑人的認(rèn)知,而人作為人工智能的開發(fā)者將固有的偏見傳遞給了技術(shù)。技術(shù)并非中立,它復(fù)刻且放大了不公正的社會結(jié)構(gòu),也反映并強(qiáng)化了既有的、結(jié)構(gòu)性的性別秩序。馬里蘭大學(xué)法學(xué)教授Danielle Citron曾參與了美國眾議院情報委員會有關(guān)人工智能深度偽造的聽證會,他在關(guān)于網(wǎng)絡(luò)騷擾的研究中發(fā)現(xiàn),這種現(xiàn)象越來越多發(fā)生在弱勢群體身上,深度偽造的濫用可能會使技術(shù)弱勢者處于更加不利的位置。

來源:視覺中國

即使是在深度偽造技術(shù)中,偏見與歧視也廣泛存在。比如相較于有色人種,許多面部識別算法都會訓(xùn)練和計算更多的白人面孔。《華盛頓郵報》記者Drew Harwel發(fā)現(xiàn),某一軟件在上傳嬰兒的照片時,只有白人才會被檢測出;他還意識到裸照生成軟件帶有某種“男性氣質(zhì)”,其誕生正是男性視角的產(chǎn)物。男性對女性身體的凝視和大多數(shù)男性無法在現(xiàn)實生活中找到“夢中情人”的心理動因,是深度偽造泛濫的重要推動力。這也不由讓人想起此前韓國的“N號房”事件,“隨機(jī)波動”播客曾指出,這一現(xiàn)象構(gòu)筑在觀看和凝視之上,建立在眼睛這一器官上,使用者通過數(shù)碼技術(shù)和賽博空間的看與被看獲得快感。

02 同情心是如何消失的?

2017年,美國社交網(wǎng)站Reddit留言板上出現(xiàn)了deep fakes小組,讓那些沒有多少機(jī)器學(xué)習(xí)知識的人更容易創(chuàng)建自己的影片。該小組的負(fù)責(zé)人在接受采訪時說,他不是專業(yè)研究人員,只是對機(jī)器學(xué)習(xí)感興趣的程序員,他找到了一種算法來進(jìn)行面部交換,并以色情影片的方式訓(xùn)練這一算法。高度依賴數(shù)據(jù)和計算、需要復(fù)雜技術(shù)才能實現(xiàn)的深度造假,在推廣和使用過程中愈加方便易行。深度造假正向著廉價造假轉(zhuǎn)化,借助一些低價乃至免費的軟件,消費者無需專業(yè)知識和技術(shù)能力,即可通過終端實現(xiàn)調(diào)整速度、攝像頭效果、更換背景、實現(xiàn)換臉等操作。這在一定程度上成為了色情視頻濫觴的源頭。

這種輕易生成的色情視頻將很大程度上損害女性的工作前途、人際關(guān)系、名譽(yù)和心理健康,造成污名化女性、色情報復(fù)的惡果,使女性暴露在某種集體監(jiān)視之中,網(wǎng)絡(luò)也有可能滑向隱形的性交易場所。斯坦福大學(xué)歷史學(xué)家、傳播學(xué)學(xué)者弗萊德特納在追溯二戰(zhàn)期間美國人對大眾傳媒的強(qiáng)烈恐懼心理時指出,媒體不僅會影響人們的觀念,也會制造出新的感受和欲望,并將人們內(nèi)心最深處的訴求激發(fā)出來。與之類似,裸照生成軟件會將某些需求合理化和顯性化。

來源:圖蟲創(chuàng)意

這種輕松易得的方式也將削弱深度偽造生產(chǎn)者的道義責(zé)任和負(fù)罪感,因為屏幕帶來的距離感使其似乎并沒有參與到“實際”的影像生產(chǎn)當(dāng)中,他認(rèn)為自己不過是按下了鼠標(biāo)而已。這仿佛構(gòu)成了當(dāng)代版的“現(xiàn)代性與大屠殺”當(dāng)每個人只是生產(chǎn)鏈條中的一個環(huán)節(jié),而不與受害者產(chǎn)生直接關(guān)聯(lián)時,他是否還能體認(rèn)自己的罪行?

這種距離感同時也會削弱人們的同情心,傳播學(xué)學(xué)者彭蘭曾提出了“數(shù)字化元件”的概念,指的是在數(shù)字化生存狀態(tài)下,一個完整的人被數(shù)據(jù)和技術(shù)拆分為可以相互獨立的不同部分,這將影響我們?nèi)绾未嬖谝约叭绾握J(rèn)識他人。在此過程中,人極有可能被進(jìn)一步被物化和他者化,進(jìn)而喪失對他人最起碼的同理心。

回到文章開頭阿尤布的故事,她說自己已經(jīng)承受了多年的網(wǎng)絡(luò)性騷擾,但當(dāng)她報案時,警察笑著觀看那些深度偽造的照片。正如《智能機(jī)器時代:人工智能》一書所引用的機(jī)器人專家普菲弗爾的論述,感同身受是屬于人類的智能,深度偽造將可能帶來更大的信任危機(jī)。

03 如何應(yīng)對“眼見不為實”?

深度偽造技術(shù)的出現(xiàn)和推廣是一個重要的信號,它預(yù)示著人類社會未來將可能發(fā)生的視覺文化的重塑。然而我們早已習(xí)慣了感官輸入的物質(zhì)世界,尚未做好如何應(yīng)對非本能、非習(xí)得信息的準(zhǔn)備。中國傳媒大學(xué)人類命運(yùn)共同體研究院副院長姬德強(qiáng)認(rèn)為,眼見為實在過去的人類歷史中占據(jù)著最基本的認(rèn)識論權(quán)威,人們相信視覺文本的客觀性屬性。而深度造假的技術(shù)優(yōu)勢和游獵特征對這一權(quán)威造成了前所未有的挑戰(zhàn),其生產(chǎn)的視覺文本既造成了文本的自我顛覆,也從根本上顛覆了客觀性或者真相的生產(chǎn)體制。這將打破符號的社會共識,對視覺文本的不信任也會深刻瓦解社會的意義和價值空間。

美國眾議院情報委員會于2019年6月13日組織聽證會,重點分析了深度偽造技術(shù)影響下的國家和選舉的安全風(fēng)險,可被視作對此前美國政治領(lǐng)域由深度偽造事件帶來的一系列危機(jī)的回應(yīng)。這些危機(jī)包括2018年4月有技術(shù)團(tuán)隊制作了涉及美國前總統(tǒng)奧巴馬的換臉視頻,在視頻中“奧巴馬”稱美國現(xiàn)總統(tǒng)特朗普為“徹頭徹尾的白癡”;2018年5月,有人利用深度偽造技術(shù)制作了特朗普的視頻,批評比利時的環(huán)保政策等。它們已經(jīng)威脅到美國的政治秩序和選舉。

真實奧巴馬圖像與深度偽造圖像的對比畫面(來源:Youtube/UC Berkeley)

深度偽造很難真正被發(fā)現(xiàn),并且存在法律盲區(qū)即它是基于公開照片生成。歐盟曾提出“被遺忘權(quán)”的概念,以應(yīng)對當(dāng)今的數(shù)據(jù)濫用和數(shù)據(jù)暴力問題,然而,被遺忘權(quán)如何在真實生活中得以落實?公開的數(shù)據(jù)是否還屬于個人?誰有權(quán)利刪除數(shù)據(jù)?違法者或侵權(quán)者的數(shù)據(jù)是否擁有同樣的權(quán)利?除此之外,當(dāng)平臺發(fā)現(xiàn)疑似深度偽造視頻時,它是否能簡單刪除以規(guī)避責(zé)任,這種行為又是否會妨礙傳播自由?

虛擬照片的版權(quán)歸屬界定似乎也是一個問題。Generated photos官網(wǎng)上寫到,“所有的照片都是由AI系統(tǒng)從零開始創(chuàng)建。任何的照片都可以不受限地用于任何目的,而不用擔(dān)心版權(quán)、分發(fā)權(quán)、侵權(quán)賠償和版稅的問題。”所以,如果一張照片完全基于龐大的數(shù)據(jù)庫自動生成,那它還屬于任何人嗎?

人類并非沒有試圖通過技術(shù)手段遏制深度造假的泛濫。2019年,斯坦福大學(xué)研究員Tom Van de Weghe聯(lián)合計算機(jī)、新聞等行業(yè)的專家,成立了深度造假研究小組,以提升公眾對這一現(xiàn)象的認(rèn)知度,設(shè)計深度造假的識別應(yīng)對方案。他們的主要方式是“溯源防偽”和“反向破解”,然而道高一尺魔高一丈,技術(shù)發(fā)展速度往往高于破解速度。比如通過跟蹤視頻中人物眨眼頻率來辨?zhèn)蔚募夹g(shù),很快便被深度偽造技術(shù)避開了,后者通過收集海量眨眼視頻進(jìn)行訓(xùn)練,進(jìn)一步優(yōu)化算法細(xì)節(jié)。同時,識別偽造技術(shù)所受到的關(guān)注、獲得的資金和機(jī)構(gòu)支持遠(yuǎn)遜于偽造技術(shù),一些解決方案很可能因成本或政策方面的難題而無法真正推廣。

2019年1月25日,美國華盛頓,一名記者在自己的辦公桌上觀看一段利用人工智能操縱的“深度偽造”視頻。(來源:視覺中國)

計算機(jī)與人工智能在帶來的便捷和紅利的同時,也如一把達(dá)摩克利斯之劍懸掛在人類社會的頭頂。對于技術(shù)發(fā)展的盲目樂觀和自信,正讓我們逐步失去對技術(shù)發(fā)展以及技術(shù)背后隱藏的權(quán)力結(jié)構(gòu)的關(guān)注。總之,深度偽造問題不僅與技術(shù)進(jìn)步有關(guān),更關(guān)乎平臺的責(zé)任、傳播和言論自由、社會倫理和社會治理以及人的存在方式。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港