展會信息港展會大全

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見
來源:互聯(lián)網(wǎng)   發(fā)布日期:2020-11-21 06:53:00   瀏覽:7551次  

導(dǎo)讀:新智元報道 來源:Nature 編輯:小勻、衛(wèi)民 【新智元導(dǎo)讀】 面部識別系統(tǒng)早已在機(jī)...

新智元報道

來源:Nature

編輯:小勻、衛(wèi)民

【新智元導(dǎo)讀】面部識別系統(tǒng)早已在機(jī)嘗火車站和智能手機(jī)上使用,但它們的應(yīng)用范圍正日益擴(kuò)大到公共和私人空間。本期Nature探討了這項技術(shù)的力量和缺陷。從誤判到隱私、道德與人權(quán),面部識別是否被濫用了呢?

人在家中坐,鍋從天上來。

威廉姆斯正在密歇根州底特律的家中,一通電話打進(jìn)來:我們是警察局的,已經(jīng)掌握了你盜竊的事實,你可以投案自首。

他不以為然,直到一小時后,警車駛來,在妻子和女兒的面前,威廉姆斯被戴上了手銬,以「盜竊罪」被逮捕。

茫然而憤怒的威廉姆斯被押上了警車。

在審訊室,威廉姆斯才知道了自己「犯案」的過程:偷盜了當(dāng)?shù)氐母邫n商品店鋪,偷走了5只價值3800美元的手表。

威廉姆斯當(dāng)然喊冤,一位老老實實的上班族又怎么可能去偷東西呢?

可警察接下來拿出來的「證據(jù)」,卻讓他有口難辯。

這是一張監(jiān)控畫面的截圖:畫面中的男子身穿黑色衣服,頭戴紅色帽子,那是一頂圣路易斯紅雀隊的隊帽。

畫面中的人與威廉姆斯唯一相同的點就是:他們是身材相似的黑人。

「這不是我!你以為所有黑人都長一樣嗎?」威廉姆斯憤怒地質(zhì)問道。

「電腦說是你!咕煺f。

根據(jù)人臉識別算法,系統(tǒng)給威廉姆斯定了罪。

用「面部識別」抓人,42人被標(biāo)記,8人真有罪

人臉識別技術(shù)不只在底特律的警察局使用,事實上,這已經(jīng)成為警察辦案的重要工具。

而且,深受警察們信任。

故事中的主人公威廉姆斯被證明了清白,因為他有比面部識別更強(qiáng)有力的證據(jù)不在場證明。

但疑問也來了,面部識別真的奏效嗎?畢竟,誤判的后果會給被害人帶來不可彌補的傷害。

2016年至2019年間,倫敦的首都警察實驗室測試了實時面部識別技術(shù),他們在一輛警車的控制室里監(jiān)控一些試驗。

「這就像你在電影里看到的一樣,」 達(dá)拉格默里說,他是爾切斯特埃塞克斯大學(xué)的一名法律學(xué)者。當(dāng)攝像機(jī)掃描購物中心和廣場上的路人時,圖像會傳回貨車內(nèi)的電腦。

系統(tǒng)在人臉周圍畫出矩形,并在直播中識別出人臉。然后提取出關(guān)鍵特征,并將其與觀察名單中的嫌疑人進(jìn)行比較。如果有匹配,它就會從直播中提取圖像,同時從觀察列表中提取圖像。

圖源:《編碼偏見》

在查看對比結(jié)果后,警方會決定是否沖出去阻止這名「嫌疑人」,或者逮捕他們。

該系統(tǒng)由總部位于東京的科技巨頭 NEC 銷售,該軟件標(biāo)記出了42個人;警察以「不可信」為由駁回了16個,但還是沖出去阻止了其他人。最后,其中4人在人群中消失了。在剩下的22人中,有8人被證明是的確有罪的。

警察們認(rèn)為,考慮到系統(tǒng)已經(jīng)掃描了成千上萬張面孔,其準(zhǔn)確率還是不錯的。

2018年,計算機(jī)科學(xué)家 Timnit Gepu、當(dāng)時還在紐約市微軟研究院的 Joy Buolamwini 發(fā)表了一篇開創(chuàng)性的論文。他們發(fā)現(xiàn),在識別女性和有色人種的性別方面,領(lǐng)先的面部識別軟件包的表現(xiàn)要比識別男性和白人的表現(xiàn)差得多。

這引起了人們對面部識別的巨大爭議。

今年6月,全球最大的科學(xué)計算機(jī)協(xié)會位于紐約市的計算機(jī)協(xié)會敦促私人和政府暫停使用人臉識別技術(shù),理由是「基于民族、種族、性別和其他人類特征的明顯偏見」。

深度學(xué)習(xí)引入識別系統(tǒng),更準(zhǔn)確但仍有偏見

十年前,「深度學(xué)習(xí)」被引入這個領(lǐng)域以來,從那時起,人臉識別的準(zhǔn)確性已經(jīng)有了很大的提高。

但是,這是否意味著它足夠好,可以用于低質(zhì)量的「野外」圖像,是一個極具爭議的問題。

這大多數(shù)都涉及一個多階段的過程,使用深度學(xué)習(xí)來訓(xùn)練大量數(shù)據(jù)集上的大規(guī)模神經(jīng)網(wǎng)絡(luò)來識別模式。

人臉識別系統(tǒng)通過分析人臉的幾何形狀來生成「faceprint」,這是一種可以用來識別或確認(rèn)一個人的生物特征識別系統(tǒng)。另一種用法是面部分析,通過性別、年齡、種族、情緒等標(biāo)簽,給一張面孔下定義。

典型系統(tǒng)中的第一階段,定位圖像中的一個或多個人臉。

監(jiān)控攝像頭拍攝的人臉,可能會在不同的光照條件下從不同的角度觀看,這使得他們比標(biāo)準(zhǔn)護(hù)照照片更難識別。算法將在數(shù)百萬張照片上進(jìn)行訓(xùn)練,以定位人臉上的「標(biāo)志」 ,比如眼睛、鼻子和嘴巴,它將信息提煉成一個簡潔的文件,大小從小于100字節(jié)到幾千字節(jié)不等。

接下來的任務(wù)是將面部「正常化」 ,人為地將其旋轉(zhuǎn)成一個正面、光線充足的圖像。這樣就產(chǎn)生了一組面部特征,可以與從現(xiàn)有的面部數(shù)據(jù)庫中提取的特征進(jìn)行比較。這通常包括在受控條件下拍攝的照片,比如警察的啞照。由于特征表示是緊湊的、結(jié)構(gòu)化的文件,計算機(jī)可以快速掃描數(shù)以百萬計的文件以找到最接近的匹配。

將人臉與大型數(shù)據(jù)庫(稱為一對多識別)進(jìn)行匹配是人臉識別系統(tǒng)的兩種主要類型之一。另一個是一對一的驗證,這是一個相對簡單的任務(wù),確保一個人符合自己的照片。它可以應(yīng)用于任何事情,從解鎖智能手機(jī)到國家邊境的護(hù)照檢查。

在進(jìn)行了一些對比試驗后,得出結(jié)論:大多數(shù)數(shù)據(jù)包對白人男性面孔的準(zhǔn)確度往往高于對有色人種或女性面孔。特別是,在數(shù)據(jù)庫中被歸類為非洲裔美國人或亞洲人的面孔,被錯誤識別的可能性是被歸類為白人的面孔的10-100倍。女性也比男性更容易出現(xiàn)假陽性。

另外,戶外、光線不好或者圖像顆粒狀可能會影響匹配率。

「電腦說是你」,真假面孔誰來定?

在一對一的驗證方面,例如確認(rèn)護(hù)照或智能手機(jī)的合法擁有者,人工智能已經(jīng)變得極其準(zhǔn)確,甚至與眼睛最敏銳的人類一樣嫻熟。

在這個領(lǐng)域,前沿的研究目前集中在偵測惡意攻擊上。例如,用于解鎖手機(jī)的面部識別系統(tǒng),很容易被照片欺騙。

「3D 面部識別效果更好!笿ain 說,「但現(xiàn)在最大的挑戰(zhàn)是高質(zhì)量的面具!乖谝粋項目中,Jain 和他的合作者正在通過運用皮膚紋理來檢測出「假面孔」。

但是,正如默里所發(fā)現(xiàn)的那樣,一對多的驗證卻并沒有想象中那么簡單。盡管有了足夠多的觀察名單,但被標(biāo)記為假陽性的數(shù)量很容易超過真實的結(jié)果。

今年一月在英國加的夫舉行的一場足球比賽中,抗議面部識別的橫幅(在2019冠狀病毒疾病流感大流行之前)。

當(dāng)警察通過面部識別監(jiān)測犯罪行為,必須迅速做出阻止某人的決定時,這個問題就顯現(xiàn)出來。而在緩慢的調(diào)查中,面部識別同樣也會發(fā)生錯誤。

文章開頭所說的威廉姆斯被警察的面部識別辦案系統(tǒng)誤判的事情,就是一個典型的例子。

美國公民自由聯(lián)盟的律師菲爾 梅耶爾認(rèn)為,這項技術(shù)應(yīng)該被禁止!高@種方法行不通,即使它行得通,對于政府來說,如果沒有令人信服的結(jié)果,用這種方法來監(jiān)視自己的公民仍然是非常危險的。」

在美國公民自由協(xié)會的投訴發(fā)生后不久,底特律警察局長詹姆斯 克雷格承認(rèn):如果該軟件單獨使用,「96% 的情況下」會錯誤識別案件。

出于對種族偏見和歧視的擔(dān)憂,在過去的18個月里,至少有11個美國城市禁止公共部門進(jìn)行面部識別。但底特律警方仍在使用這項技術(shù)。

2019年底,警方采取了禁止直播監(jiān)控的政策,并且規(guī)定只對靜態(tài)圖像和用于刑事調(diào)查的一部分動態(tài)圖像使用該軟件。

「而威廉姆斯是在該政策實施前被捕的」克雷格在6月份時說。

面部識別分析的其他方面研究,比如試圖根據(jù)一個人的面部表情推斷出他的性格,則更具爭議性。

研究人員已經(jīng)證明,這種方法并不奏效即使是最好的軟件也只能根據(jù)人猜測的圖像進(jìn)行訓(xùn)練。

但是世界各地的公司仍然在購買未經(jīng)證實的技術(shù),這些技術(shù)被一些企業(yè)用在面試中,根據(jù)求職者談話的視頻評估求職者的個性。

阿利坎特的計算機(jī)科學(xué)家紐里亞 奧利弗認(rèn)為,政府應(yīng)該規(guī)范面部識別和其他潛在技術(shù)的使用,以防止濫用。

奧利弗是一家名為歐洲學(xué)習(xí)與智能系統(tǒng)實驗室(European Laboratory for Learning and Intelligent Systems)的區(qū)域網(wǎng)絡(luò)的聯(lián)合創(chuàng)始人兼副總裁。他表示:

「系統(tǒng)在未經(jīng)適當(dāng)評估其性能,沒有經(jīng)過驗證和再現(xiàn)性的情況下就被廣泛使用,后果是難以預(yù)測的!

「面部識別」濫用帶來對隱私、道德和人權(quán)的擔(dān)憂

一些法規(guī)提案要求當(dāng)局建立準(zhǔn)確性標(biāo)準(zhǔn),并要求人類審查任何算法的結(jié)論。

但是,渥太華互聯(lián)網(wǎng)基金會 Mozilla 的技術(shù)研究員、專門審計面部識別系統(tǒng)的德博拉 拉吉(Deborah Raji)表示:基于 NIST 基準(zhǔn)的標(biāo)準(zhǔn)本身太低,不足以證明部署該技術(shù)是合理的。

Deborah Raji 專長于審計面部識別系統(tǒng)

今年,Raji,Buolamwini 和 Gepu等人發(fā)表了另一篇有關(guān)商業(yè)系統(tǒng)性能的論文,他們指出,盡管一些公司在對淺膚色和深膚色面孔進(jìn)行性別分類方面有所改進(jìn),但他們?nèi)匀粺o法準(zhǔn)確猜測一個深膚色面孔的年齡。

「目前的評估過程非常不成熟,每當(dāng)我們建立了一個新的評估維度,我們就會發(fā)現(xiàn),這個行業(yè)的表現(xiàn)并不像它認(rèn)為的那樣!筊aji 表示。

「重要的是,公司應(yīng)該更多地披露它們?nèi)绾螠y試和訓(xùn)練面部識別系統(tǒng),并與使用該技術(shù)的社區(qū)進(jìn)行磋商!

紐約大學(xué)人工智能研究所的法律學(xué)者 Amba Kak 認(rèn)為,技術(shù)標(biāo)準(zhǔn)不能阻止面部識別系統(tǒng)被用于歧視性用途。

「這些系統(tǒng)是否會成為警務(wù)中普遍存在的歧視做法的另一個工具? 」卡克補充說,「人類操作員往往最終只是確認(rèn)系統(tǒng)的偏差,而不是糾正它。」

諸如蘇格蘭場的外部審查等研究表明,人類往往高估這項技術(shù)的可信度,即使他們看到了電腦的虛假匹配旁邊的真實面孔。

Kak和其他人支持暫停使用任何面部識別技術(shù),這不僅是因為該技術(shù)還不夠好,還因為需要就如何防止其被濫用進(jìn)行更廣泛的討論。

默里表示,「這項技術(shù)將得到改善,但是人們?nèi)匀粦岩蓪o辜的人們進(jìn)行永久搜索的合法性,以及把人們列入觀察名單的標(biāo)準(zhǔn)!

對隱私、道德和人權(quán)的擔(dān)憂正在增長。

印度有世界上最大的生物識別計劃,其中涉及使用面部識別來建立名為Aadhaar的巨型國家身份證系統(tǒng)。

生活在印度的任何人都可以去Aadhaar中心拍照,系統(tǒng)會將該照片與13億人的現(xiàn)有記錄進(jìn)行比較,以確保申請人尚未使用其他名稱進(jìn)行注冊。

「這是一個令人難以置信的體系,」曾擔(dān)任該體系顧問的賈恩表示,「它的美妙之處在于,它確保了一個人只有一個身份證!

但批評人士稱,這項法案將非身份證持有者變成了二等公民。還有人稱,這項法案被用來在選舉前將合法公民從選民名單中清除。

紐約大學(xué)(New York University)計算機(jī)科學(xué)家、現(xiàn)代人工智能研究所(AI Now Institute)聯(lián)席主任凱特 克勞福德(Kate Crawford)表示:

「在歷史的這一點上,我們需要更加懷疑那些聲稱我們需要更加精確的公共監(jiān)控形式的說法!

2019年8月,克勞福德呼吁政府暫停使用面部識別算法。

但與此同時,在宣布其試點項目成功后,蘇格蘭場在一月份宣布,它將開始在倫敦各地部署實時面部識別系統(tǒng)。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港