展會信息港展會大全

初創(chuàng)公司用AI實時檢測Deepfake,能甄別視頻通話中的換臉騙子
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-17 19:30:23   瀏覽:1535次  

導讀:在 AI 技術快速發(fā)展的今天,實時視頻深度偽造(deepfake)技術正成為一個日益嚴峻的全球性問題,給個人、企業(yè)和政府帶來前所未有的安全威脅。 前不久,中國香港警方破獲了一起利用 AI 技術的大規(guī)模詐騙案,犯罪分子利用 AI 換臉技術在網(wǎng)上交友平臺上偽裝成女...

在 AI 技術快速發(fā)展的今天,實時視頻深度偽造(deepfake)技術正成為一個日益嚴峻的全球性問題,給個人、企業(yè)和政府帶來前所未有的安全威脅。

前不久,中國香港警方破獲了一起利用 AI 技術的大規(guī)模詐騙案,犯罪分子利用 AI 換臉技術在網(wǎng)上交友平臺上偽裝成女性,詐騙受害者總計 4600 萬美元。

這個案例凸顯了 deepfake 技術在犯罪領域的濫用。詐騙團伙不僅使用 AI 生成的照片,還在視頻通話中使用 deepfake 技術,將詐騙者變成迷人的女性,以贏得受害者的信任。

隨著使用 deepfake 技術的門檻越來越低,人們迫切需要一種有效的檢測手段。

為了應對這個問題,一家名為 Reality Defender 的美國初創(chuàng)公司推出了一種 AI 檢測工具,可以實時檢測視頻通話中的其他人有沒有使用 deepfake。

該公司的產(chǎn)品經(jīng)理克里斯托弗任(Christopher Ren)為媒體展示了其 AI 檢測工具的潛力。

他利用 GitHub 上的一些代碼和一張照片,生成特斯拉和 SpaceX 的創(chuàng)始人埃隆馬斯克(Elon Musk)deepfake 視頻,并將其映射到自己的臉上。

初創(chuàng)公司用AI實時檢測Deepfake,能甄別視頻通話中的換臉騙子

圖 | 今年 8 月,Deep-Live-Cam 開發(fā)人員制作了一段演示視頻,展示了自己與馬斯克換臉(來源:Deep-Live-Cam)

在視頻通話過程中,Reality Defender 的定制模型會通過接收靜態(tài)幀的方式實時分析視頻通話畫面。

并且,通過屏幕上的小工具提醒用戶,他們面對的可能是 AI 生成的 deepfake 視頻,而不是真實的馬斯克。

Reality Defender 的 CEO 兼聯(lián)合創(chuàng)始人本科爾曼(Ben Colman)對媒體表示:“可能只需要幾個月的時間,我們就會看到 deepfake 視頻和‘視頻通話’欺詐的爆炸性增長。”他強調(diào),在高風險情況下的視頻通話中,眼見不一定為實。

在現(xiàn)實應用場景中,Reality Defender 選擇將檢測工具打包成一個 Zoom 插件,可以實時預測視頻通話中的其他參與者是否是真人或 AI 扮演的冒牌貨。

目前,該公司正在對這一工具進行基準測試,以確定其最終的準確性。

科爾曼強調(diào),盡管其專注于與商業(yè)和政府客戶合作以打擊 AI 驅(qū)動的 deepfake,但他們并不反對 AI 技術的廣泛發(fā)展。

他說:“我們非常支持 AI。我們認為 99.999% 的 AI 用例對醫(yī)學、生產(chǎn)力和創(chuàng)造力而言都是變革性的,但在這些非常不起眼的用例中,風險卻不成比例地高。”

除了 Reality Defender,其他科技公司和研究人員也在探索不同的方法,來應對這種特殊的威脅。

2022 年,英特爾推出了深度偽造檢測工具 FakeCatcher,該工具通過分析面部血流的變化來判斷視頻參與者是否真實。

美國紐約大學計算機科學博士生戈文德米塔爾(Govind Mittal)及其所在團隊則提出了一種基于測試的方法,要求參與者在加入視頻通話前通過一種視頻驗證碼測試。

米塔爾指出:“現(xiàn)在創(chuàng)建 deepfake 變得如此簡單,我們需要的數(shù)據(jù)越來越少。如果我在 Instagram 上傳了 10 張照片,有人拿著社交媒體的照片就可以假冒我。”

最近,聯(lián)合國毒品和犯罪問題辦公室發(fā)布的一份報告也強調(diào),有些組織犯罪集團在技術方面具有進步,其特別提到了 deepfake 技術在欺詐中的日益普遍使用。

日漸增多的 deepfake 詐騙案件提醒我們,實時的 deepfake 目標不再僅限于億萬富翁和公眾人物。

該機構在東南亞地區(qū)的某社交平臺上,發(fā)現(xiàn)了超過 10 家向犯罪集團出售 deepfake 軟件服務的賬號,顯示出這項技術正在被犯罪分子廣泛使用。

然而,開發(fā)有效的檢測工具面臨著重大挑戰(zhàn)?茽柭鼘γ襟w表示,獲取更多數(shù)據(jù)是一個大難題,這也是當前 AI 創(chuàng)業(yè)公司普遍面臨的問題。

他希望通過更多的合作伙伴關系來填補這些空白,并暗示 2025 年可能會有多項新的合作協(xié)議。

例如,在 ElevenLabs 被曝與美國總統(tǒng)拜登的 deepfake 語音通話有關后,這家 AI 音頻初創(chuàng)公司就與 Realit Defender 達成了合作意向,以減少潛在的濫用。

盡管這些技術解決方案正在不斷發(fā)展,但專家們警告說,人們不應過分自信地認為自己能夠識別視頻深度偽造。

科爾曼指出:“我不會要求我 80 歲的母親學習如何識別釣魚郵件,因為她年紀太大了,而且也不是計算機專家。”

他認為,未來如果 AI 檢測技術繼續(xù)改進并被證明是可靠的,實時視頻檢測可能會像電子郵件收件箱中默默運行的惡意軟件掃描器一樣普遍。

不過,在這些技術并不完善且沒有普及的今天,為了保護自己和家人免受視頻通話詐騙的侵害,我們不得不提高警惕,不要輕易相信視頻通話中看到的內(nèi)容,并始終提醒自己:眼見不一定為實。

參考資料:

https://arstechnica.com/security/2024/10/startup-can-catch-identify-deepfake-video-in-realtime/

https://www.realitydefender.com/blog/real-time-video-deepfake-detection-now-on-reality-defender

https://arstechnica.com/ai/2024/10/deepfake-lovers-swindle-victims-out-of-46m-in-hong-kong-ai-scam/

運營/排版:何晨龍

贊助本站

相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港