展會信息港展會大全

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見
來源:互聯(lián)網(wǎng)   發(fā)布日期:2020-11-21 06:53:00   瀏覽:7551次  

導(dǎo)讀:新智元報(bào)道 來源:Nature 編輯:小勻、衛(wèi)民 【新智元導(dǎo)讀】 面部識別系統(tǒng)早已在機(jī)...

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

新智元報(bào)道

來源:Nature

編輯:小勻、衛(wèi)民

【新智元導(dǎo)讀】面部識別系統(tǒng)早已在機(jī)嘗火車站和智能手機(jī)上使用,但它們的應(yīng)用范圍正日益擴(kuò)大到公共和私人空間。本期Nature探討了這項(xiàng)技術(shù)的力量和缺陷。從誤判到隱私、道德與人權(quán),面部識別是否被濫用了呢?

人在家中坐,鍋從天上來。

威廉姆斯正在密歇根州底特律的家中,一通電話打進(jìn)來:我們是警察局的,已經(jīng)掌握了你盜竊的事實(shí),你可以投案自首。

他不以為然,直到一小時(shí)后,警車駛來,在妻子和女兒的面前,威廉姆斯被戴上了手銬,以「盜竊罪」被逮捕。

茫然而憤怒的威廉姆斯被押上了警車。

在審訊室,威廉姆斯才知道了自己「犯案」的過程:偷盜了當(dāng)?shù)氐母邫n商品店鋪,偷走了5只價(jià)值3800美元的手表。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

威廉姆斯當(dāng)然喊冤,一位老老實(shí)實(shí)的上班族又怎么可能去偷東西呢?

可警察接下來拿出來的「證據(jù)」,卻讓他有口難辯。

這是一張監(jiān)控畫面的截圖:畫面中的男子身穿黑色衣服,頭戴紅色帽子,那是一頂圣路易斯紅雀隊(duì)的隊(duì)帽。

畫面中的人與威廉姆斯唯一相同的點(diǎn)就是:他們是身材相似的黑人。

「這不是我!你以為所有黑人都長一樣嗎?」威廉姆斯憤怒地質(zhì)問道。

「電腦說是你!咕煺f。

根據(jù)人臉識別算法,系統(tǒng)給威廉姆斯定了罪。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

用「面部識別」抓人,42人被標(biāo)記,8人真有罪

人臉識別技術(shù)不只在底特律的警察局使用,事實(shí)上,這已經(jīng)成為警察辦案的重要工具。

而且,深受警察們信任。

故事中的主人公威廉姆斯被證明了清白,因?yàn)樗斜让娌孔R別更強(qiáng)有力的證據(jù)不在場證明。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

但疑問也來了,面部識別真的奏效嗎?畢竟,誤判的后果會給被害人帶來不可彌補(bǔ)的傷害。

2016年至2019年間,倫敦的首都警察實(shí)驗(yàn)室測試了實(shí)時(shí)面部識別技術(shù),他們在一輛警車的控制室里監(jiān)控一些試驗(yàn)。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

「這就像你在電影里看到的一樣,」 達(dá)拉格默里說,他是爾切斯特埃塞克斯大學(xué)的一名法律學(xué)者。當(dāng)攝像機(jī)掃描購物中心和廣場上的路人時(shí),圖像會傳回貨車內(nèi)的電腦。

系統(tǒng)在人臉周圍畫出矩形,并在直播中識別出人臉。然后提取出關(guān)鍵特征,并將其與觀察名單中的嫌疑人進(jìn)行比較。如果有匹配,它就會從直播中提取圖像,同時(shí)從觀察列表中提取圖像。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

圖源:《編碼偏見》

在查看對比結(jié)果后,警方會決定是否沖出去阻止這名「嫌疑人」,或者逮捕他們。

該系統(tǒng)由總部位于東京的科技巨頭 NEC 銷售,該軟件標(biāo)記出了42個(gè)人;警察以「不可信」為由駁回了16個(gè),但還是沖出去阻止了其他人。最后,其中4人在人群中消失了。在剩下的22人中,有8人被證明是的確有罪的。

警察們認(rèn)為,考慮到系統(tǒng)已經(jīng)掃描了成千上萬張面孔,其準(zhǔn)確率還是不錯(cuò)的。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

2018年,計(jì)算機(jī)科學(xué)家 Timnit Gepu、當(dāng)時(shí)還在紐約市微軟研究院的 Joy Buolamwini 發(fā)表了一篇開創(chuàng)性的論文。他們發(fā)現(xiàn),在識別女性和有色人種的性別方面,領(lǐng)先的面部識別軟件包的表現(xiàn)要比識別男性和白人的表現(xiàn)差得多。

這引起了人們對面部識別的巨大爭議。

今年6月,全球最大的科學(xué)計(jì)算機(jī)協(xié)會位于紐約市的計(jì)算機(jī)協(xié)會敦促私人和政府暫停使用人臉識別技術(shù),理由是「基于民族、種族、性別和其他人類特征的明顯偏見」。

深度學(xué)習(xí)引入識別系統(tǒng),更準(zhǔn)確但仍有偏見

十年前,「深度學(xué)習(xí)」被引入這個(gè)領(lǐng)域以來,從那時(shí)起,人臉識別的準(zhǔn)確性已經(jīng)有了很大的提高。

但是,這是否意味著它足夠好,可以用于低質(zhì)量的「野外」圖像,是一個(gè)極具爭議的問題。

這大多數(shù)都涉及一個(gè)多階段的過程,使用深度學(xué)習(xí)來訓(xùn)練大量數(shù)據(jù)集上的大規(guī)模神經(jīng)網(wǎng)絡(luò)來識別模式。

人臉識別系統(tǒng)通過分析人臉的幾何形狀來生成「faceprint」,這是一種可以用來識別或確認(rèn)一個(gè)人的生物特征識別系統(tǒng)。另一種用法是面部分析,通過性別、年齡、種族、情緒等標(biāo)簽,給一張面孔下定義。

典型系統(tǒng)中的第一階段,定位圖像中的一個(gè)或多個(gè)人臉。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

監(jiān)控?cái)z像頭拍攝的人臉,可能會在不同的光照條件下從不同的角度觀看,這使得他們比標(biāo)準(zhǔn)護(hù)照照片更難識別。算法將在數(shù)百萬張照片上進(jìn)行訓(xùn)練,以定位人臉上的「標(biāo)志」 ,比如眼睛、鼻子和嘴巴,它將信息提煉成一個(gè)簡潔的文件,大小從小于100字節(jié)到幾千字節(jié)不等。

接下來的任務(wù)是將面部「正; ,人為地將其旋轉(zhuǎn)成一個(gè)正面、光線充足的圖像。這樣就產(chǎn)生了一組面部特征,可以與從現(xiàn)有的面部數(shù)據(jù)庫中提取的特征進(jìn)行比較。這通常包括在受控條件下拍攝的照片,比如警察的啞照。由于特征表示是緊湊的、結(jié)構(gòu)化的文件,計(jì)算機(jī)可以快速掃描數(shù)以百萬計(jì)的文件以找到最接近的匹配。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

將人臉與大型數(shù)據(jù)庫(稱為一對多識別)進(jìn)行匹配是人臉識別系統(tǒng)的兩種主要類型之一。另一個(gè)是一對一的驗(yàn)證,這是一個(gè)相對簡單的任務(wù),確保一個(gè)人符合自己的照片。它可以應(yīng)用于任何事情,從解鎖智能手機(jī)到國家邊境的護(hù)照檢查。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

在進(jìn)行了一些對比試驗(yàn)后,得出結(jié)論:大多數(shù)數(shù)據(jù)包對白人男性面孔的準(zhǔn)確度往往高于對有色人種或女性面孔。特別是,在數(shù)據(jù)庫中被歸類為非洲裔美國人或亞洲人的面孔,被錯(cuò)誤識別的可能性是被歸類為白人的面孔的10-100倍。女性也比男性更容易出現(xiàn)假陽性。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

另外,戶外、光線不好或者圖像顆粒狀可能會影響匹配率。

「電腦說是你」,真假面孔誰來定?

在一對一的驗(yàn)證方面,例如確認(rèn)護(hù)照或智能手機(jī)的合法擁有者,人工智能已經(jīng)變得極其準(zhǔn)確,甚至與眼睛最敏銳的人類一樣?jì)故臁?/p>

在這個(gè)領(lǐng)域,前沿的研究目前集中在偵測惡意攻擊上。例如,用于解鎖手機(jī)的面部識別系統(tǒng),很容易被照片欺騙。

「3D 面部識別效果更好!笿ain 說,「但現(xiàn)在最大的挑戰(zhàn)是高質(zhì)量的面具!乖谝粋(gè)項(xiàng)目中,Jain 和他的合作者正在通過運(yùn)用皮膚紋理來檢測出「假面孔」。

但是,正如默里所發(fā)現(xiàn)的那樣,一對多的驗(yàn)證卻并沒有想象中那么簡單。盡管有了足夠多的觀察名單,但被標(biāo)記為假陽性的數(shù)量很容易超過真實(shí)的結(jié)果。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

今年一月在英國加的夫舉行的一場足球比賽中,抗議面部識別的橫幅(在2019冠狀病毒疾病流感大流行之前)。

當(dāng)警察通過面部識別監(jiān)測犯罪行為,必須迅速做出阻止某人的決定時(shí),這個(gè)問題就顯現(xiàn)出來。而在緩慢的調(diào)查中,面部識別同樣也會發(fā)生錯(cuò)誤。

文章開頭所說的威廉姆斯被警察的面部識別辦案系統(tǒng)誤判的事情,就是一個(gè)典型的例子。

美國公民自由聯(lián)盟的律師菲爾 梅耶爾認(rèn)為,這項(xiàng)技術(shù)應(yīng)該被禁止!高@種方法行不通,即使它行得通,對于政府來說,如果沒有令人信服的結(jié)果,用這種方法來監(jiān)視自己的公民仍然是非常危險(xiǎn)的。」

在美國公民自由協(xié)會的投訴發(fā)生后不久,底特律警察局長詹姆斯 克雷格承認(rèn):如果該軟件單獨(dú)使用,「96% 的情況下」會錯(cuò)誤識別案件。

出于對種族偏見和歧視的擔(dān)憂,在過去的18個(gè)月里,至少有11個(gè)美國城市禁止公共部門進(jìn)行面部識別。但底特律警方仍在使用這項(xiàng)技術(shù)。

2019年底,警方采取了禁止直播監(jiān)控的政策,并且規(guī)定只對靜態(tài)圖像和用于刑事調(diào)查的一部分動(dòng)態(tài)圖像使用該軟件。

「而威廉姆斯是在該政策實(shí)施前被捕的」克雷格在6月份時(shí)說。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

面部識別分析的其他方面研究,比如試圖根據(jù)一個(gè)人的面部表情推斷出他的性格,則更具爭議性。

研究人員已經(jīng)證明,這種方法并不奏效即使是最好的軟件也只能根據(jù)人猜測的圖像進(jìn)行訓(xùn)練。

但是世界各地的公司仍然在購買未經(jīng)證實(shí)的技術(shù),這些技術(shù)被一些企業(yè)用在面試中,根據(jù)求職者談話的視頻評估求職者的個(gè)性。

阿利坎特的計(jì)算機(jī)科學(xué)家紐里亞 奧利弗認(rèn)為,政府應(yīng)該規(guī)范面部識別和其他潛在技術(shù)的使用,以防止濫用。

奧利弗是一家名為歐洲學(xué)習(xí)與智能系統(tǒng)實(shí)驗(yàn)室(European Laboratory for Learning and Intelligent Systems)的區(qū)域網(wǎng)絡(luò)的聯(lián)合創(chuàng)始人兼副總裁。他表示:

「系統(tǒng)在未經(jīng)適當(dāng)評估其性能,沒有經(jīng)過驗(yàn)證和再現(xiàn)性的情況下就被廣泛使用,后果是難以預(yù)測的!

「面部識別」濫用帶來對隱私、道德和人權(quán)的擔(dān)憂

一些法規(guī)提案要求當(dāng)局建立準(zhǔn)確性標(biāo)準(zhǔn),并要求人類審查任何算法的結(jié)論。

但是,渥太華互聯(lián)網(wǎng)基金會 Mozilla 的技術(shù)研究員、專門審計(jì)面部識別系統(tǒng)的德博拉 拉吉(Deborah Raji)表示:基于 NIST 基準(zhǔn)的標(biāo)準(zhǔn)本身太低,不足以證明部署該技術(shù)是合理的。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

Deborah Raji 專長于審計(jì)面部識別系統(tǒng)

今年,Raji,Buolamwini 和 Gepu等人發(fā)表了另一篇有關(guān)商業(yè)系統(tǒng)性能的論文,他們指出,盡管一些公司在對淺膚色和深膚色面孔進(jìn)行性別分類方面有所改進(jìn),但他們?nèi)匀粺o法準(zhǔn)確猜測一個(gè)深膚色面孔的年齡。

「目前的評估過程非常不成熟,每當(dāng)我們建立了一個(gè)新的評估維度,我們就會發(fā)現(xiàn),這個(gè)行業(yè)的表現(xiàn)并不像它認(rèn)為的那樣!筊aji 表示。

「重要的是,公司應(yīng)該更多地披露它們?nèi)绾螠y試和訓(xùn)練面部識別系統(tǒng),并與使用該技術(shù)的社區(qū)進(jìn)行磋商。」

紐約大學(xué)人工智能研究所的法律學(xué)者 Amba Kak 認(rèn)為,技術(shù)標(biāo)準(zhǔn)不能阻止面部識別系統(tǒng)被用于歧視性用途。

「這些系統(tǒng)是否會成為警務(wù)中普遍存在的歧視做法的另一個(gè)工具? 」卡克補(bǔ)充說,「人類操作員往往最終只是確認(rèn)系統(tǒng)的偏差,而不是糾正它!

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

諸如蘇格蘭場的外部審查等研究表明,人類往往高估這項(xiàng)技術(shù)的可信度,即使他們看到了電腦的虛假匹配旁邊的真實(shí)面孔。

Kak和其他人支持暫停使用任何面部識別技術(shù),這不僅是因?yàn)樵摷夹g(shù)還不夠好,還因?yàn)樾枰腿绾畏乐蛊浔粸E用進(jìn)行更廣泛的討論。

默里表示,「這項(xiàng)技術(shù)將得到改善,但是人們?nèi)匀粦岩蓪o辜的人們進(jìn)行永久搜索的合法性,以及把人們列入觀察名單的標(biāo)準(zhǔn)!

對隱私、道德和人權(quán)的擔(dān)憂正在增長。

印度有世界上最大的生物識別計(jì)劃,其中涉及使用面部識別來建立名為Aadhaar的巨型國家身份證系統(tǒng)。

生活在印度的任何人都可以去Aadhaar中心拍照,系統(tǒng)會將該照片與13億人的現(xiàn)有記錄進(jìn)行比較,以確保申請人尚未使用其他名稱進(jìn)行注冊。

人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見

「這是一個(gè)令人難以置信的體系,」曾擔(dān)任該體系顧問的賈恩表示,「它的美妙之處在于,它確保了一個(gè)人只有一個(gè)身份證。」

但批評人士稱,這項(xiàng)法案將非身份證持有者變成了二等公民。還有人稱,這項(xiàng)法案被用來在選舉前將合法公民從選民名單中清除。

紐約大學(xué)(New York University)計(jì)算機(jī)科學(xué)家、現(xiàn)代人工智能研究所(AI Now Institute)聯(lián)席主任凱特 克勞福德(Kate Crawford)表示:

「在歷史的這一點(diǎn)上,我們需要更加懷疑那些聲稱我們需要更加精確的公共監(jiān)控形式的說法!

2019年8月,克勞福德呼吁政府暫停使用面部識別算法。

但與此同時(shí),在宣布其試點(diǎn)項(xiàng)目成功后,蘇格蘭場在一月份宣布,它將開始在倫敦各地部署實(shí)時(shí)面部識別系統(tǒng)。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港