最近一段時(shí)間,AI在被人類利用制造虛假和錯(cuò)誤信息的路上,可謂一騎絕塵。前有AI生成的特朗普入獄圖在網(wǎng)絡(luò)瘋傳,后有AI生成的假新聞騙倒眾人。利用AI生成內(nèi)容的手法過去就有,但新工具大大提高了虛假和錯(cuò)誤信息的生產(chǎn)效率以及逼真程度。AIGC 可能導(dǎo)致哪些虛假信息泛濫的風(fēng)險(xiǎn)?
本期較真聯(lián)合知識八點(diǎn)檔,邀請騰訊較真主筆丁陽對話浙江大學(xué)傳媒與國際文化學(xué)院“百人計(jì)劃”研究員周睿鳴、中國科學(xué)院計(jì)算技術(shù)研究所博士牛雪松、北京航空航天大學(xué)工業(yè)和信息化法治研究院研究員周瑞玨,一起探討。本文為文字上篇,下篇詳見AI也能用來對抗謠言,我們不能要求對AI的監(jiān)管太超前
核心速覽:
1.通過人眼辨別圖像是否由AI生成,已經(jīng)非常困難了。一是現(xiàn)在圖像生成的質(zhì)量和準(zhǔn)確性已經(jīng)越來越高,二是普通人在日常生活場景很難對每張圖片都保持懷疑意識。
2.技術(shù)的發(fā)展,可能會讓炮制虛假信息的成本降低,但是不能說AIGC的發(fā)展一定會導(dǎo)致越來越多的虛假信息,這兩者之間的因果關(guān)聯(lián),很難建立起來。現(xiàn)在的AI,它能貼合人的表達(dá)方式和思維方式。雖然信息準(zhǔn)確度未必高,但它表達(dá)出來的邏輯和方式,至少不會讓人覺得這是機(jī)器生成的內(nèi)容。所以虛假信息的治理難度客觀上是會大大提升。
3.如今AI對人臉、聲音等的模擬已經(jīng)非常好。在支付掃臉等方面,如果前置檢測做得不好,甚至可能通過AI生成的人臉進(jìn)行詐騙,這是一個(gè)較大的風(fēng)險(xiǎn)。一旦發(fā)生,對每個(gè)人都是一次較大的打擊。所以如何把AI生成的人臉、聲音檢測出來,是一個(gè)主要的研究方向。
4.在如今的信息環(huán)境下,反應(yīng)過度、疑神疑鬼可能是一個(gè)挺好的狀態(tài)。未來我們可能需要具備這樣一個(gè)意識:你看的東西,會有AI參與。但同時(shí)我們又離不開互聯(lián)網(wǎng),所以說辟謠主體、識別信息真假的主體,也許就是我們每一個(gè)人。
在閱讀這篇文章前,先邀請大家一起參與一個(gè)識圖小游戲。請判斷以下四張圖是真實(shí)拍攝、AI 生成、還是 PS 的?在評論區(qū)寫下你的答案。
這四張圖是真實(shí)拍攝、AI 生成、還是 PS 的?
丁陽:隨著AI技術(shù)的不斷升級,用戶只需提供一個(gè)簡單的文字提示,就能通過Midjourney、DALL-E等圖像生成工具迅速生成圖像。AI 生成圖像的逼真程度,目前已經(jīng)發(fā)展到哪一步了?通過人眼辨別圖像是否由AI生成,是不是已經(jīng)不太可能了?
周睿鳴:我之前覺得還是有可能的。但是在經(jīng)過識圖環(huán)節(jié)后,我更傾向于不太可能。因?yàn)槲野l(fā)現(xiàn)了自己的一些問題。比如辨認(rèn)“特朗普被捕圖”,我憑的是社會特征,調(diào)用的是我的常識,而不是圖像特征。
周瑞玨:目前AI成像,還是有一些細(xì)節(jié)問題,比如剛才所說的AI畫不好手指。還有AI畫風(fēng)有時(shí)候太過精細(xì),我們拍攝或者畫人物圖像的話,人臉的毛孔一般是會存在的,但是在AI生圖,大多大家的臉都是特別光滑的,一點(diǎn)痕跡、一點(diǎn)毛孔都沒有。
但是我覺得如果普通人要在日常生活場景中判斷的話,是真的有點(diǎn)太困難了。大家平時(shí)刷手機(jī),對某張圖片的注意力可能也就幾秒鐘的時(shí)間,在這么短的時(shí)間內(nèi)下意識或者說第一時(shí)間去有“這張照片是真是假?這張照片有沒有可能是假的”的意識,我覺得是很難的。
牛雪松:按照現(xiàn)在生成的質(zhì)量和準(zhǔn)確性來看,就是我們一打眼去看,其實(shí)很難判斷出來它是不是AI生成的。從技術(shù)本身迭代的角度來看,圖像生成肯定是越來越真實(shí),像手指生成這個(gè)錯(cuò)誤 case,已經(jīng)在逐漸被解決,一些應(yīng)用可以直接控制手指生成的數(shù)量等信息。
丁陽:技術(shù)發(fā)展的程度我們已經(jīng)無法改變。另外一個(gè)問題就是人為地惡意去生產(chǎn)虛假信息、虛假圖片會不會愈演愈烈?我們注意到國外已經(jīng)出現(xiàn)了用AIGC生成文章的內(nèi)容農(nóng)場網(wǎng)站。最近甘肅平?jīng)鍪泄簿志W(wǎng)安大隊(duì)偵破了一起利用AI炮制假新聞的案件,犯罪嫌疑人洪某弟通過ChatGPT將搜集到的新聞要素修改編輯后發(fā)布,“今晨甘肅一火車撞上修路工人致9人死亡”就是他炮制的一條假新聞。
周睿鳴:我覺得這是一種憂思。技術(shù)的發(fā)展,可能會讓炮制虛假新聞的成本降低,但是肯定不能說AIGC的發(fā)展一定會導(dǎo)致越來越多的虛假信息,這兩者之間的因果關(guān)聯(lián),我覺得很難建立起來。技術(shù)發(fā)展往下走,我們的社會是一定會越發(fā)無序嗎?不盡然是這樣。相反可能要思考的就這里面到底有什么社會問題,F(xiàn)在同類型的虛假信息會反復(fù)出現(xiàn),這反映了一些社會心態(tài)。所以與其說這是一個(gè)技術(shù)問題,不如說這就是一個(gè)社會問題。
技術(shù)的發(fā)展讓炮制虛假新聞的成本降低是一個(gè)挺重要的問題,值得憂慮,但我覺得可能不如我剛才說的社會問題更加致命。
周瑞玨:我跟周老師意見比較相似。虛假信息、網(wǎng)絡(luò)謠言其實(shí)在AI出來之前就已經(jīng)存在了,但如今全球普遍關(guān)注 AI 與虛假信息的關(guān)系,原因在于假消息不難判斷,最難的是一半是真的,一半是假的。而對于謠言制造者而言,要保證嫁接類虛假信息的邏輯合理性,需要花些時(shí)間。但是AI的出現(xiàn),尤其像我們近些年說的ChatGPT,它最大的一個(gè)功能或者說進(jìn)步的一個(gè)特點(diǎn),就是它能貼合人的表達(dá)方式和思維方式。雖然信息準(zhǔn)確度未必高,但它表達(dá)出來的邏輯和方式,至少不會讓人覺得這是機(jī)器生成的內(nèi)容。所以虛假信息的治理難度客觀上會大大提升。
牛雪松:這個(gè)問題是不是跟技術(shù)是不是有罪相關(guān)?就是AIGC發(fā)展很快,它的使用成本也會越來越低,這是一個(gè)正向的事情,只不過是有些人利用了正向的技術(shù)發(fā)展。我覺得需要做的,一是從技術(shù)上對虛假信息做一些判斷,二是其實(shí)重要的還是人治,技術(shù)監(jiān)管、法律監(jiān)管這些配套措施到位之后,這個(gè)技術(shù)本身是不用太過于擔(dān)心它作惡的。
丁陽:抽象地說技術(shù)可能不會造成整體上的問題,但是針對于一個(gè)具體的人,可能要被迫面臨負(fù)面后果。比如說廣州一女子在地鐵上的照片被AI一鍵脫衣,被造謠說她在地鐵上拍裸照。在時(shí)間、地點(diǎn)都對的上的情況下,偽造的謠言對普通人來說百口莫辯,辟謠成本是非常高的,幾位老師怎么看這個(gè)問題?
周睿鳴:確實(shí)是一個(gè)很糟糕的事情,我想起《讓子彈飛》里的名場面“你到底吃了幾碗粉”。我為什么講這樣的一個(gè)段子呢?我想說的是,辟謠的主體,是被害人嗎?還是應(yīng)該讓公安機(jī)關(guān)下場來調(diào)查?我們假定公安機(jī)關(guān)注意到了這個(gè)“疑似造謠”,不管是從網(wǎng)上關(guān)注到輿情,還是當(dāng)事人自己報(bào)案。在這樣的情況下,需要由當(dāng)事人來舉證這是謠言嗎?這真的是她的責(zé)任嗎?
再說“百口莫辯”這個(gè)事。我最近與同學(xué)互動(dòng)的過程當(dāng)中,我總是覺得,大家越來越沉入一個(gè)信息特別龐雜、特別爆炸的一個(gè)環(huán)境里面。人們越是成為當(dāng)下數(shù)字時(shí)代的原住民,就會越感受到這種良莠不齊的龐雜信息帶給他們的各種困擾。在這個(gè)情況下,我跟學(xué)生們說,你們可能需要一個(gè)白名單,這個(gè)白名單就是,我從哪里可以接收到相對來說比較靠譜的信息。
所以回到咱們剛才這樣的一個(gè)話題上,就是辟謠成本,我覺得全民、全社會可能都需要努力,當(dāng)然相關(guān)的職能部門的介入,在法治的層面去實(shí)現(xiàn)某種調(diào)控可能也是很必要的。但我覺得可能全體網(wǎng)民或者說是大多數(shù)用戶都要想到,可能我一上網(wǎng),就面對著這么一個(gè)情況這個(gè)照片有可能是假的,不是真實(shí)的。所以丁老師您前面提到說您反應(yīng)過度、疑神疑鬼,我覺得這個(gè)其實(shí)是一個(gè)挺好的狀態(tài),與其說辟謠成本是不是越來越高了,那反倒有這樣的一個(gè)契機(jī)提醒我們,必須具備這樣一個(gè)意識:你看的東西,會有AI參與。但同時(shí)我們離不開互聯(lián)網(wǎng),它會給我們生活很多幫助。所以辟謠主體、識別信息真假的主體,也許就是我們每一個(gè)人。
牛雪松:我感覺辟謠成本任何時(shí)候都是很高的,比如這個(gè)例子,也許一張照片都沒有,就一句謠言,說“你在地鐵上拍裸照”。就這么一句文字,那其實(shí)你也需要去花很大的精力去做證明,證明你當(dāng)時(shí)不是這個(gè)狀態(tài)。而現(xiàn)在這些所謂AIGC的東西,讓造謠的成本變得又低了一些。所以說一直以來,辟謠都是一個(gè)成本很高的一個(gè)事情。
應(yīng)對這個(gè)問題,像周老師剛才說的,需要我們所有人去共同努力。我們首先就要繃緊一根弦,傳言到底是不是真的,不要輕易去相信。
從技術(shù)側(cè)角度來說的話,以我的感覺,在未來會對圖像會有一些檢測,比如我們不能去上傳一些生成圖像。其實(shí)現(xiàn)在很多視頻網(wǎng)站,對換臉的視頻,或者是換臉的一些圖像,都會有一些檢測,或者會有個(gè)標(biāo)識,說這個(gè)圖像是換臉的結(jié)果,是AI生成的結(jié)果。未來隨著技術(shù)進(jìn)步,也許它的檢測率越來越高。當(dāng)你這張照片發(fā)布出去時(shí)候,它會直接標(biāo)出來,這是一個(gè)AI生成的,這樣的話,你的辟謠成本可能會相對來說會低一些。
周瑞玨:針對個(gè)體的謠言,現(xiàn)狀就是個(gè)人救濟(jì)的成本過高。我們的辟謠目的是在短時(shí)間內(nèi)最小化謠言對個(gè)人或我們自身的負(fù)面影響。舉個(gè)例子,如果有謠言稱可以一鍵脫衣,而該消息被個(gè)人的工作單位領(lǐng)導(dǎo)、同事或家庭好友看到,對于當(dāng)事人來說,無論真假,都會產(chǎn)生不同程度的精神損害結(jié)果。
盡管現(xiàn)行法律提供了救濟(jì)渠道,但這主要是事后的救濟(jì)。因此,從技術(shù)源頭的角度探索或者說從網(wǎng)絡(luò)平臺的角度,可以考慮在信息發(fā)布之前進(jìn)行第一次和第二次內(nèi)容審核。例如,像AI信息服務(wù)提供者可以考慮在第一時(shí)間切斷涉及一鍵脫衣這種功能,或者在用戶提出此類請求時(shí)從技術(shù)或服務(wù)功能層面阻止該功能。第二層網(wǎng)絡(luò)平臺可以在涉及一鍵脫衣的信息上進(jìn)行事前的內(nèi)容審核,無論真假,此類信息都不應(yīng)該發(fā)布。第三步可能就需要侵權(quán)救濟(jì)來解決。
丁陽:我理解周瑞玨老師的意思,但是對于像一鍵脫衣這樣的功能,我認(rèn)為它肯定不是合法軟件提供的功能,而是違法軟件提供的功能。我們可能只能要求相關(guān)單位打擊這類違法軟件的生產(chǎn)和傳播。如果它是來自國外的某個(gè)東西,我們可能很難應(yīng)對。另外,關(guān)于平臺方面,你覺得我們是否可以像治理涉黃信息一樣,來解決“一鍵脫衣”這樣的問題呢?
周瑞玨:平臺審核通常包括人工審核和機(jī)械自動(dòng)審核。假如我們從機(jī)械自動(dòng)審核的角度來看,如果一鍵脫衣發(fā)布的是裸照,那么全身皮膚的顏色面積可能會較大,這樣機(jī)器可能更容易識別。而人工審核方面,平臺內(nèi)部的審核員會注意到異常信息,比如某某女士在地鐵上拍裸照這樣的關(guān)鍵詞,審核人員可能會重點(diǎn)審核。因此,我們可以從這兩個(gè)方面盡可能地進(jìn)行事前預(yù)防。但客觀上來說,完全在事前階段預(yù)防這種情況的可能性不大。
另外,AI換臉有時(shí)不涉及直接違法犯罪行為,但構(gòu)成侵權(quán)行為。平臺不可能準(zhǔn)確地對每個(gè)信息發(fā)布者發(fā)布的信息內(nèi)容進(jìn)行一對一的審核,因此有時(shí)可能依靠事后階段的用戶舉報(bào)或被侵權(quán)人向平臺提出申訴來控制損害。但事前階段完全由平臺進(jìn)行全面控制或大范圍控制可能在現(xiàn)有技術(shù)下仍然存在一些困難。
丁陽:除了我們剛才提到的例子,AI制造的虛假信息還可能帶來哪些危害?
周瑞玨:除了涉及刑事犯罪的信息外,還有一種叫做偽科普的信息。比如,有些老年人可能會相信網(wǎng)絡(luò)上說的一些關(guān)于輻射的謠言,比如靠近移動(dòng)基站會有輻射,懷孕期間不能玩手機(jī)會有輻射。雖然這種信息本身可能并非惡意謠言或虛假信息,但存在偽科普的問題。當(dāng)這些低質(zhì)量且沒有科學(xué)驗(yàn)證的信息大量傳播后,人們可能開始難以區(qū)分真假。對于一些老年人來說,對于營養(yǎng)品或保健品的欺詐行為,預(yù)防就變得困難。另外,就像之前丁陽老師提到的美國五角大樓著火的謠言通過AI生成的圖片影響了股市,如果通過偽造的圖片和聲音讓人誤以為某支股票可能會有股價(jià)波動(dòng),從經(jīng)濟(jì)角度來看,這可能會對股票的市值產(chǎn)生負(fù)面影響。
牛雪松:還有AI詐騙的問題,F(xiàn)在AI對人臉、聲音等的模擬已經(jīng)非常好,比如之前那個(gè)AI模擬孫燕姿的音色非常像。還有AI換臉的技術(shù),從各個(gè)角度看,生成的人臉幾乎與真實(shí)的臉沒有太大差別。在支付掃臉等方面,如果前置檢測做得不好,甚至可能通過AI生成的人臉進(jìn)行詐騙,這是一個(gè)較大的風(fēng)險(xiǎn)。目前,如何AI生成的人臉、聲音檢測出來,是一個(gè)主要的研究方向。這樣就能盡量規(guī)避一些經(jīng)濟(jì)層面的風(fēng)險(xiǎn),因?yàn)檫@種風(fēng)險(xiǎn)對一般人來說是相當(dāng)高的,一旦發(fā)生,對每個(gè)人都是一次較大的打擊。
周睿鳴:我認(rèn)為更緊迫的問題不是AI虛假信息的泛濫風(fēng)險(xiǎn),而是這種風(fēng)險(xiǎn)是否會被廣大網(wǎng)絡(luò)用戶或與網(wǎng)絡(luò)無關(guān)的居民在日常生活中反復(fù)體驗(yàn)到。正如雪松剛才提到的,AI仿制的聲音在日常生活中已經(jīng)普遍存在,我們每天都接到各種騷擾電話,包括一些不是騷擾的電話,比如銀行或訂購業(yè)務(wù)方面的推銷電話。對于這些騷擾或營銷信息,我可能因?yàn)殚L期聽到,能夠分辨出哪些是真人聲音,哪些不是。但我的家人則未必能識別。所以更緊迫的問題是,一旦泛濫,我們是否能識別出這些信息的危險(xiǎn)性,因?yàn)樗赡茉谖覀兒敛恢榈那闆r下給我們帶來一些不良后果。例如假科學(xué)信息,特別是與養(yǎng)生有關(guān)的信息,不論處于哪個(gè)年齡段,人們都想要快捷便利的方法來保持健康。但當(dāng)這種心態(tài)驅(qū)使著你時(shí),你是否有足夠的意識和素養(yǎng)來抵御風(fēng)險(xiǎn)?這可能是更加緊迫的問題。