展會信息港展會大全

面部識別的主流采用可能會產(chǎn)生險惡的后果
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-12-28 12:25:29   瀏覽:14052次  

導(dǎo)讀:12 月 14 日,不列顛哥倫比亞...

12 月 14 日,不列顛哥倫比亞盛阿爾伯塔省和魁北克省政府命令面部識別公司 Clearview AI停止收集和刪除未經(jīng)他們同意而獲得的人的圖像。關(guān)于依賴自動人臉分析技術(shù)的人臉識別系統(tǒng)風(fēng)險的討論往往集中在公司、國家政府和執(zhí)法部門。但最令人擔(dān)憂的是面部識別和分析如何融入我們的日常生活。

亞馬遜、微軟和 IBM 已停止向警察部門提供面部識別系統(tǒng),因為研究表明算法偏見嚴(yán)重錯誤地識別了有色人種,尤其是黑人。

Facebook 和 Clearview AI 已經(jīng)處理了在未經(jīng)人們同意的情況下建立數(shù)十億人臉模板數(shù)據(jù)庫的訴訟和和解。

在英國,警察因在公共場所使用實時人臉識別而面臨審查。中國政府通過面部掃描技術(shù)追蹤其少數(shù)民族維吾爾人。

然而,要掌握這些系統(tǒng)的范圍和后果,我們還必須注意日常用戶的隨意行為,他們以常規(guī)方式應(yīng)用面部掃描和分析,這些行為會導(dǎo)致隱私受到侵蝕并加劇社會歧視和種族主義。

作為移動媒體視覺實踐及其與社會不平等的歷史聯(lián)系的研究人員,我定期探索用戶行為如何圍繞隱私和身份等問題建立或改變規(guī)范。在這方面,人臉分析系統(tǒng)和產(chǎn)品在我們?nèi)粘I钪械牟捎煤褪褂每赡軙_(dá)到一個危險的臨界點。

日常面部掃描

檢測面部特征的開源算法使面部分析或識別成為應(yīng)用程序開發(fā)人員的簡單附加組件。我們已經(jīng)使用面部識別來解鎖我們的手機(jī)或支付商品費用。集成到智能家居中的攝像機(jī)使用面部識別來識別訪客以及個性化屏幕顯示和音頻提醒。手機(jī)攝像頭的自動對焦功能包括人臉檢測和跟蹤,而云照片存儲通過匹配和分組它在我們制作的圖像中識別的人臉來生成相冊和主題幻燈片。

許多應(yīng)用程序都使用面部分析,包括社交媒體過濾器和配件,這些應(yīng)用程序會產(chǎn)生人工老化和動畫面部特征等效果。用于美容、星座或種族檢測的自我提升和預(yù)測應(yīng)用程序也會根據(jù)面部掃描生成建議和結(jié)論。

但是,使用人臉分析系統(tǒng)進(jìn)行星座運勢、自拍或識別走在我們前面的人可能會產(chǎn)生長期的社會后果:它們可以促進(jìn)大規(guī)模監(jiān)視和跟蹤,同時維持系統(tǒng)性的社會不平等。

偶然風(fēng)險

隨著時間的推移,這種低風(fēng)險和快速回報的用途可以讓我們更普遍地進(jìn)行面部掃描,為跨不同環(huán)境的更廣泛的系統(tǒng)打開大門。我們無法控制也很少了解誰運行這些系統(tǒng)以及如何使用數(shù)據(jù)。

如果我們已經(jīng)對我們的面部進(jìn)行了自動檢查,不僅在我們同意的情況下,而且在我們積極參與的情況下,那么在我們穿過公共空間或訪問服務(wù)時接受類似的掃描和分析可能看起來并不特別具有侵入性。

此外,我們個人對面部分析技術(shù)的使用直接有助于開發(fā)和實施更大的系統(tǒng),用于跟蹤人口、對客戶進(jìn)行排名或開發(fā)用于調(diào)查的嫌疑人池。公司可以收集和共享將我們的圖像與我們的身份聯(lián)系起來的數(shù)據(jù),或者用于訓(xùn)練人工智能系統(tǒng)進(jìn)行面部或情感識別的更大數(shù)據(jù)集。

即使我們使用的平臺限制此類用途,合作伙伴產(chǎn)品也可能不會遵守相同的限制。私人個人新數(shù)據(jù)庫的開發(fā)可能是有利可圖的,尤其是當(dāng)這些數(shù)據(jù)庫可以包含每個用戶的多個面部圖像或可以將圖像與識別信息(例如帳戶名稱)相關(guān)聯(lián)時。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港