新冠肺炎疫情在全球范圍內(nèi)暴發(fā)之后,眾多科技企業(yè)都在遭遇一場重創(chuàng)。
谷歌公司宣布取消6月之前預(yù)期舉辦的全部線下活動;蘋果公司關(guān)閉了大中華區(qū)之外的所有直營店,原定于3月底舉行的春季新品發(fā)布會或?qū)⑷∠。即使按照最樂觀的估計,在疫情的影響下,全球科技行業(yè)的進(jìn)展至少會推遲半年到一年。
挑戰(zhàn)之下也有機(jī)遇并存。《人類簡史》的作者尤瓦爾赫拉利近日在接受多家媒體采訪時表示,盡管新冠肺炎、艾滋并埃博拉病毒已經(jīng)奪走了無數(shù)人的生命,但21世紀(jì)流行病導(dǎo)致的死亡在總?cè)丝谒急壤,比石器時代以來的任何時候都低。
由于人類科技的進(jìn)步,對疫情的了解更多,應(yīng)對疫情的辦法也更多。在全球共同抵抗疫情傳播的過程中,科技信息的共享尤為關(guān)鍵。赫拉利的觀點,似乎與不少科技巨頭不謀而合。
在過去的兩個月期間,中國互聯(lián)網(wǎng)企業(yè)已率先為同行做出了示范。而從 3月以來,蘋果、微軟、谷歌等國際互聯(lián)網(wǎng)企業(yè)已經(jīng)在運用大數(shù)據(jù)、信息追蹤等技術(shù)手段協(xié)助各國政府控制疫情的發(fā)展。另一方面,F(xiàn)acebook等社交平臺也在遏制疫情期間的虛假廣告,打擊“污名化”與歧視言論。
在這場疫情戰(zhàn)中,科技為人類帶來的優(yōu)勢已毋需多言。但隨科技而來的各類風(fēng)險又如何規(guī)避呢?大數(shù)據(jù)的運用、人工智能的探索對隱私安全、網(wǎng)絡(luò)犯罪、社交倫理造成了史無前例的沖擊?萍嫉墓ぞ邔傩匀趸耐瑫r,是否可能變成攻擊人類的危險武器呢?
科技的開發(fā)者與管理者如何思考和應(yīng)對,對于我們理解這一系列的棘手問題也許有更為直觀的幫助。下文摘編自《工具,還是武器?》,在這本書中,微軟總裁兼首席法務(wù)官布拉德史密斯(Brad Smith)與卡羅爾安布朗(Carol Ann Browne)共同就數(shù)字化時代下的網(wǎng)絡(luò)安全、個人隱私和環(huán)境可持續(xù)性等問題提出了自己的見解。作者和他們帶領(lǐng)的團(tuán)隊在實踐中的探索,對于科技行業(yè)乃至每一位普通人都有著借鑒和啟示意義。
原文作者 | [美]布拉德史密斯、卡羅爾安布朗
《工具,還是武器》(美)布拉德史密斯、卡羅爾安布朗著,楊靜嫻、趙磊譯,中信出版集團(tuán)2020年2月版
1
很多人已經(jīng)習(xí)慣了人臉識別
而不是用密碼解鎖
2002年6月,史蒂文斯皮爾伯格執(zhí)導(dǎo)的新片《少數(shù)派報告》首映。這部電影是根據(jù)科幻小說作家菲利普迪克1956年的著名短篇小說改編的,以2054年已消滅了犯罪的華盛頓特區(qū)為背景,由湯姆克魯斯主演。劇中,湯姆克魯斯扮演精英警察部門“預(yù)防犯罪小組”的一位主管,這個小組的職責(zé)是在兇手實施犯罪前逮捕他們。該小組有權(quán)根據(jù)三位“先知”所看到的意象實施逮捕,因為這三個人擁有洞悉未來的超自然能力。但是很快,“先知”預(yù)測克魯斯自己將犯下謀殺罪行,因此他不得不開始逃亡,躲避自己部門的追捕在一個所有人和所有行為都受到追蹤的城市里。
《少數(shù)派報告》(2002)劇照。
15年之后再回頭看這部影片,值得慶幸的是,這種執(zhí)法方式看似有些牽強(qiáng)。不過今天,《少數(shù)派報告》中的一個場景似乎遠(yuǎn)遠(yuǎn)早于2054年就已經(jīng)成為現(xiàn)實。影片中,克魯斯在逃亡時走進(jìn)了一家蓋普店。這家零售商擁有一項技術(shù),可以識別每一位進(jìn)店的顧客,并會立即開始在一個顯示屏上展示它認(rèn)為顧客會喜歡的衣服圖像。有些人可能覺得這個服務(wù)很有吸引力,但其他人可能會覺得它們很煩人甚至令人毛骨悚然。簡而言之,進(jìn)入一家這樣的商店,就好比我們有時候瀏覽完網(wǎng)絡(luò)后再去看社交媒體信息,卻發(fā)現(xiàn)上面有我們剛剛在網(wǎng)頁上瀏覽之物的廣告。
在《少數(shù)派報告》中,斯皮爾伯格希望觀眾思考,科技如何既能被利用也能被濫用科技可被用來在犯罪實際發(fā)生前消除犯罪,可一旦出了問題,它也可能被濫用來侵犯人權(quán)。在蓋普商店里識別克魯斯的技術(shù)是依賴于嵌入他體內(nèi)的一塊芯片。在21世紀(jì)的前20年,現(xiàn)實世界的技術(shù)進(jìn)步甚至已經(jīng)超過斯皮爾伯格的想象,因為今天已經(jīng)不需要這樣的芯片。人臉識別技術(shù)利用基于人工智能的計算機(jī)視覺與相機(jī),輔以云數(shù)據(jù),可以識別進(jìn)入商店的顧客面孔,無論他們是上周還是一小時前曾經(jīng)來過。這項技術(shù)正在為科技行業(yè)和政府創(chuàng)造一個先手機(jī)會,如何用一種重點突出而又切實具體的方式來處理人工智能的道德和人權(quán)問題,而它們能否抓住這個機(jī)會,就要看它們怎樣決定來監(jiān)管人臉識別技術(shù)了。
對于大多數(shù)人來說,最初簡單場景的應(yīng)用,如編目和搜索照片,現(xiàn)在已經(jīng)變得日益復(fù)雜。很多人已經(jīng)習(xí)慣了依靠人臉識別,而不是用密碼,來解鎖iPhone或Windows筆記本電腦。其應(yīng)用不會僅止于此。
《越獄》第五季 (2017)里的人臉識別模仿。
2
面部和指紋一樣獨特
現(xiàn)在,一臺電腦已經(jīng)可以完成我們幾乎所有人從一出生就能做的事識別人們的臉。對我們大多數(shù)人來說,這在一開始是能夠認(rèn)出媽媽的能力。養(yǎng)育孩子的樂趣之一,就是在進(jìn)入家門的時候看到蹣跚學(xué)步的孩子激動地向你撲來。這種會一直持續(xù)到青少年時期的反應(yīng)有賴于人類天生的人臉識別能力。雖然這是我們?nèi)粘I畹幕A(chǔ),但我們幾乎從不停下來思考是什么使它成為可能。
事實證明,我們的臉和指紋一樣獨特。我們的面部特征包括瞳孔之間的距離、鼻子的大孝微笑的樣子和下巴的輪廓。計算機(jī)可使用照片來繪制這些特征并將它們編織在一起,并以此為基礎(chǔ)建立一個數(shù)學(xué)方程,這些數(shù)學(xué)方程可以通過算法來訪問。
人們正在把這項技術(shù)應(yīng)用到世界各地,以便改善人們的生活。在某些情況下,這樣做是為了方便消費者。澳大利亞國民銀行正在利用微軟的人臉識別技術(shù)開發(fā)一種服務(wù),可以讓顧客走到ATM前,無須銀行卡即可安全取款。這些ATM可以識別顧客的面孔,然后他們就可以輸入取款密碼并完成交易。
在其他場景中,這種技術(shù)可帶來更大的好處。在華盛頓特區(qū),美國國家人類基因組研究所正在利用人臉識別技術(shù)幫助醫(yī)生診斷一種被稱為DiGeorge綜合征(DGS)或22q11.2缺失綜合征的疾玻這是一種多發(fā)于非洲、亞洲或拉丁美洲人口的疾玻它會導(dǎo)致各種嚴(yán)重的健康問題,包括心臟和腎臟的損傷。患有這種病的人也常常帶有特定的面部特征,這些特征可以通過電腦使用人臉識別系統(tǒng)加以識別,從而幫助醫(yī)生診斷出需要幫助的病人。
這些場景說明了一些重要和具體的方法,以便使人臉識別可以用于造福社會。這是21世紀(jì)的新工具。
各種可以用于監(jiān)控的電子設(shè)備。
然而,和許多其他工具一樣,它也可以變成危險的武器。人臉識別很容易與更廣泛社會問題交織在一起,并提出了一個至關(guān)重要的問題:我們希望這種形式的人工智能在我們的社會中發(fā)揮什么作用?
2018年夏,弗吉尼亞州一位自稱“自由軟件修補(bǔ)者”的人在推特上發(fā)布了一系列關(guān)于微軟與美國移民與海關(guān)執(zhí)法局(ICE),簽訂合同的消息,這些消息源于當(dāng)年1月微軟在公司官方營銷博客上發(fā)布的一篇文章。坦率地說,公司里的每個人都已經(jīng)忘記了那篇博文。不過,那篇文章表示,微軟向ICE提供的技術(shù)已經(jīng)通過了極高的安全門檻,將被ICE部署。文章還表示,微軟公司對于能夠支持該部門的工作而深感自豪,并且還有一句話提到了ICE使用人臉識別技術(shù)的潛力。
2018年6月,特朗普政府決定在美國南部墨西哥邊境把非法入境者的孩子與家人分開,這迅速成為一個爆炸性問題。公司幾個月前發(fā)表的一份營銷稿現(xiàn)在看來已大不相同,而人臉識別技術(shù)的用途看起來也完全不同。人們擔(dān)心ICE和其他移民機(jī)關(guān)可能會把像人臉識別這樣的技術(shù)應(yīng)用到工作中。這是否意味著,當(dāng)移民在城市街道上行走時,連接到云端的攝像機(jī)可以用來識別他們的身份?這是否意味著,鑒于這項技術(shù)的現(xiàn)狀,以及它可能產(chǎn)生偏差的風(fēng)險,它可能會錯誤辨識某個人并導(dǎo)致其被錯誤拘留?這只是許多問題中的兩個。
按照慣例,我們首先要弄清楚公司與ICE的合同到底包括了什么。
經(jīng)過深入調(diào)查,我們發(fā)現(xiàn)這份合同根本沒有被用在人臉識別上。謝天謝地,微軟也沒有參與任何在邊境線上將孩子與其家人分開的項目。相反,這份合同其實是幫助ICE將其電子郵件、日歷、消息和文檔管理工作轉(zhuǎn)移到云端。這與我們在美國和世界各地與客戶(包括其他政府機(jī)構(gòu))合作的項目類似。
盡管如此,這件事仍然產(chǎn)生了一個新的爭議。
3
責(zé)任底線
有些人正在極力鼓吹科技公司應(yīng)該采取主動行動,對于我們反對的政府政策,終止為政府機(jī)構(gòu)提供所有服務(wù)?萍棘F(xiàn)已成為我們生活中一個關(guān)鍵的基礎(chǔ)設(shè)施,如果不能及時更新技術(shù)或者更糟的是,簡單做出終止技術(shù)服務(wù)的決定可能帶來各種意想不到的后果。正如薩提亞在我們的內(nèi)部談話中多次指出的那樣,政府正在以電子郵件為工具幫助非法移民家庭團(tuán)聚。如果我們把郵件系統(tǒng)關(guān)掉,誰知道會發(fā)生什么。
這讓我們得出結(jié)論,抵制美國政府機(jī)構(gòu)是錯誤的做法。但主張采取這種行動的人,包括我們自己的一些員工,提出了一些正確的問題。例如,人臉識別技術(shù)帶來的挑戰(zhàn)需要受到更多關(guān)注。
經(jīng)過深思熟慮,我們得出結(jié)論,這項新技術(shù)應(yīng)該受到新的法律法規(guī)約束。這是保護(hù)公眾隱私需求,化解偏見和歧視風(fēng)險,同時使創(chuàng)新得以繼續(xù)的唯一途徑。
這一點凸顯了在公共安全與人權(quán)由來已久的矛盾之間的艱難權(quán)衡。它還表明了許多有關(guān)人工智能的新型倫理道德決定的主觀性質(zhì)。當(dāng)然,我們同樣擔(dān)心,正如那位團(tuán)隊領(lǐng)導(dǎo)和其他人所指出的那樣,如果我們拒絕提供這項服務(wù),可能會有其他公司乘虛而入。在這種情況下,我們不僅會丟掉生意,還不得不在其他人幫助將技術(shù)用于我們所反對的有害目的時只能袖手旁觀。不過,我們權(quán)衡了所有這些因素,最終得出結(jié)論,我們需要嘗試給這種新技術(shù)的發(fā)展奠定某種類型的道德基矗這樣做的唯一辦法就是拒絕將其用于某些用途,并推動更廣泛的公眾討論。
這種原則性的方法在加州本地的一個警察部門聯(lián)系我們時經(jīng)受了考驗,他們表示,他們想為自己的所有車載和手持?jǐn)z像機(jī)配備一種能力,使其可以拍攝被攔下的人的照片,甚至包括例行檢查時被攔下的人,并查看他們是否與其他罪行的嫌疑人數(shù)據(jù)庫相匹配。我們理解他們的邏輯,但向他們建議,由于人臉識別技術(shù)仍然不成熟,因而無法在這種情況下部署。至少在2018年,如此使用這一技術(shù)將導(dǎo)致過多的錯誤匹配,并針對被錯誤識別的人發(fā)出警報,特別是如果他們是有色人群或女性,因為針對這兩類人群的錯誤率仍然較高。我們拒絕了這項交易,并說服了警察部門放棄將人臉識別用于這一目的。
這些經(jīng)驗提供了一些啟發(fā),幫助我們思考可以應(yīng)用于人臉識別的原則。但我們擔(dān)心,如果我們走上這條倫理大道,但被那些根本沒有實施任何防范或限制措施的公司削弱,無論這些公司是在西雅圖的另一側(cè),還是在太平洋的另一側(cè),則我們的做法都不會產(chǎn)生什么實際影響。與許多基于人工智能的技術(shù)一樣,人臉識別也會隨著大量的數(shù)據(jù)積累而改進(jìn)。這就使公司擁有動力盡可能多地進(jìn)行早期交易,從而導(dǎo)致商業(yè)競爭的風(fēng)險,而科技公司將被迫在社會責(zé)任和市場成功之間做出選擇。
英國Channel 4與美國NetFlix公司出品的《黑鏡第三季》(2016)構(gòu)想了一個計算、排位個人評分的世界。分?jǐn)?shù)決定了他們能夠過上怎樣的生活。
防止這種惡性競爭的唯一辦法是確立一個支持健康市場競爭的責(zé)任底線,而一個堅實的底線基礎(chǔ)要求我們確保這項技術(shù)以及開發(fā)和使用它的組織受到法治的約束。
我們從以往針對其他技術(shù)所實施的監(jiān)管中汲取了經(jīng)驗。在許多市場中,兼顧各方利益的平衡監(jiān)管方式為消費者和生產(chǎn)者雙方創(chuàng)造了更健康的動態(tài)關(guān)系。在20世紀(jì),汽車工業(yè)曾花了幾十年的時間來抵制監(jiān)管要求,但今天,人們廣泛認(rèn)識到,法律在確保強(qiáng)制安裝安全帶和氣囊,以及更高的燃油效率方面發(fā)揮了重要作用。同樣的情況也適用于航空安全以及食品和藥品管理。
當(dāng)然,談?wù)摫O(jiān)管的必要性是一回事,而界定什么樣的監(jiān)管最為合理則是另一回事。2018年7月,我們公布了一個我們認(rèn)為需要考慮的問題清單,并就可能的答案征求人們的意見。討論首先在員工和技術(shù)專家中展開,但很快擴(kuò)展到全國和世界各地,包括美國公民自由聯(lián)盟這樣積極參與這個問題討論的公民自由組織。
我們不再像大多數(shù)科技公司那樣,堅守抵制政府干預(yù)的傳統(tǒng)。我們以前進(jìn)行過那樣的抗?fàn)。相反,我們已?jīng)認(rèn)可并支持我們心目中更積極但更平衡的監(jiān)管方式。這也是我們早在2005年就呼吁美國聯(lián)邦隱私保護(hù)立法的原因之一。我們認(rèn)為,無論是對科技行業(yè)還是對社會,這種做法從普遍意義上來說都比完全依賴科技行業(yè)自行解決一切問題的做法要好得多。
4
行動之前:我們能做什么?
在更迅速地開始行動之余,深思熟慮并確保邁出正確的前幾步也很重要。在這一點上,我們相信我們擁有一系列想法來應(yīng)對人臉識別技術(shù)。我在華盛頓特區(qū)的布魯金斯學(xué)會宣布了我們對新立法的主張,并公開發(fā)表了我們提案的更多細(xì)節(jié)。然后,我們開始巡回推廣這一主張,在接下來的6個月里,我們在美國和世界其他8個國家的公共活動和立法聽證會上對它進(jìn)行了推介。
《解除好友2:暗網(wǎng)》(2018)劇照。
我們認(rèn)為,立法可以解決三個關(guān)鍵問題,即偏見風(fēng)險、隱私和對民主自由的保護(hù)。我們相信,一個運作良好的市場有助于更快地減少偏見。我們遇到的客戶都沒有興趣購買錯誤率高,并導(dǎo)致歧視的人臉識別服務(wù)。但如果客戶缺乏信息,市場就無法正常運轉(zhuǎn)。
為了幫助減少歧視風(fēng)險,我們認(rèn)為新的法律還應(yīng)該要求,部署了人臉識別的組織首先應(yīng)培訓(xùn)員工審查結(jié)果,然后再做出關(guān)鍵決策,而不是簡單地把決策權(quán)交給電腦。除此以外,我們擔(dān)心,如果一個組織在部署人臉識別時并未按照該技術(shù)設(shè)計時預(yù)期的方式,發(fā)生偏差的風(fēng)險可能會加劇。訓(xùn)練有素的人員則有助于解決這個問題。
在某種程度上,一個更棘手的問題是,什么時候應(yīng)該允許執(zhí)法部門使用人臉識別技術(shù)針對特定個人進(jìn)行持續(xù)的監(jiān)視。
民主始終取決于人們相互見面和交談,并在私下和公開場合討論自己觀點的能力。這有賴于人們能夠在沒有政府持續(xù)監(jiān)控的情況下自由行動。
人臉識別技術(shù)的許多政府用途是用于保護(hù)公共安全和促進(jìn)更好的公眾服務(wù),并不會引起上述擔(dān)心。但是,如果將無處不在的攝像頭、巨大的計算能力和云端存儲結(jié)合起來,政府可以使用人臉識別技術(shù)來持續(xù)監(jiān)視特定的人。它可以在任何時候做到這一點,甚至可以持續(xù)這樣做。而以這種方式使用這項技術(shù)則可能會導(dǎo)致規(guī)?涨暗拇笠(guī)模監(jiān)視。
因此我們認(rèn)為,法律只有在下列情況下才可以允許執(zhí)法機(jī)構(gòu)使用人臉識別來對特定的人進(jìn)行持續(xù)監(jiān)視,即執(zhí)法機(jī)構(gòu)已經(jīng)獲得了法庭命令(如對這種監(jiān)視的搜查令),或是在緊急情況下,如人類生命面臨迫在眉睫的危險。這將為人臉識別服務(wù)創(chuàng)建規(guī)則,這些規(guī)則與美國目前通過手機(jī)生成的GPS位置跟蹤個人的規(guī)則類似。正如美國最高法院在2018年做出的裁決,如果沒有搜查令,警方將不能要求顯示手機(jī)地點的手機(jī)記錄,因此無法獲得某人的實際行動軌跡。正如我們所說:“我們的面孔是否應(yīng)該得到和手機(jī)同等的保護(hù)?在我們看來,答案當(dāng)然是響亮的‘是’。”
新京報漫畫/陳冬
最后,顯而易見的是,人臉識別的監(jiān)管也應(yīng)該保護(hù)商業(yè)環(huán)境下的消費者隱私。我們正迅速進(jìn)入一個時代,在這個時代,每家商店都可以安裝攝像頭,通過實時人臉識別服務(wù)連接到云端。從你走進(jìn)購物中心的那一刻起,無論你走到哪里,都有可能不僅被拍照,而且被電腦識別。購物中心的老板可以把這些信息分享給每一家商店。有了這些數(shù)據(jù),店主可以了解你上次進(jìn)店的時間以及你看了什么或買了什么,通過與其他商店共享這些數(shù)據(jù),他們可以預(yù)測你下一步打算買什么。
我們的觀點并不是說新的法律應(yīng)該禁止所有這些技術(shù)。相反,我們是致力于幫助商店負(fù)責(zé)任地使用新技術(shù)改善購物體驗的公司之一。我們相信許多消費者會歡迎由此帶來的客戶服務(wù)。但我們同樣認(rèn)為,人們有權(quán)知道什么時候使用了人臉識別,提出問題,并有真正的選擇。
我們建議,新的法律應(yīng)要求使用人臉識別的組織發(fā)布“醒目的通知”,以方便人們知曉這項服務(wù)。我們還呼吁制定新的法規(guī),以決定人們在這種情況下可在何時以及以何種方式進(jìn)行有意義的控制和同意。后一個問題顯然需要在未來幾年中開展更多的工作,從而確定適當(dāng)?shù)姆煞椒,特別是在隱私法律不如歐洲健全的美國。
創(chuàng)意圖片/新京報記者 王遠(yuǎn)征
另一個有幫助的點是考慮新法律的適用范圍。在某些方面,我們并不需要鼓勵普天之下都通過立法。例如,如果一個重要的州或國家要求公司為公眾和學(xué)術(shù)測試提供人臉識別服務(wù),那么這個決策將會被公布并廣泛散播,從而起到引領(lǐng)作用;谶@一信念,我們鼓勵美國各州的立法者在2019年初在全國各地準(zhǔn)備召開會議時都分別考慮新的立法。
但在消費者隱私保護(hù)和對民主自由的保護(hù)方面,所有司法管轄區(qū)都需要新的法律。我們認(rèn)識到,鑒于世界各國政府的不同觀點,這一點可能并不現(xiàn)實。因此,僅僅呼吁政府采取行動是遠(yuǎn)遠(yuǎn)不夠的。就算美國政府行動起來了,外面還有一個更大的世界。人們永遠(yuǎn)無法相信世界各國政府都會以符合人權(quán)保護(hù)的方式使用這項技術(shù)。
政府主導(dǎo)的需要并不能免除科技公司自身的道德責(zé)任。人臉識別技術(shù)的發(fā)展和使用應(yīng)該與普遍秉持的社會價值觀相一致。我們公布了與我們的立法建議相呼應(yīng)的六大準(zhǔn)則,并將其應(yīng)用到我們的人臉識別技術(shù)中,我們還創(chuàng)建了實施這些原則的系統(tǒng)和工具。其他科技公司和倡導(dǎo)團(tuán)體也開始采取類似的做法。
人臉識別問題讓我們得以瞥見人工智能的其他倫理道德挑戰(zhàn)有可能發(fā)生怎樣的演變。正如我們所做的那樣,我們可以先制定廣泛適用的原則,隨后在人工智能技術(shù)的具體應(yīng)用和特定場景中對這些原則進(jìn)行測試。這種方法也適用于具有潛在爭議的人工智能應(yīng)用更可能出現(xiàn)之時。
更多的問題一定會出現(xiàn)。并且與人臉識別一樣,在遇到每個問題時,都需要針對該項技術(shù)可能應(yīng)用的方式分別開展大量細(xì)致的工作。要解決許多這樣的問題,最終將需要新的監(jiān)管政策與科技公司主動的自我監(jiān)管相結(jié)合。在面對許多這樣的問題時,不同國家和文化也會存在不同的觀點。我們需要發(fā)展一種更強(qiáng)的能力,使各國能夠更迅速、更協(xié)作地采取行動,在經(jīng)常性的基礎(chǔ)上應(yīng)對這些問題。這是我們能夠確保機(jī)器將永遠(yuǎn)由人控制的必由之路。
作者 | [美]布拉德史密斯、卡羅爾安布朗
整合 | 李永博
編輯 | 西西
校對 | 陳荻雁
各種可以用于監(jiān)控的電子設(shè)備。