展會信息港展會大全

刷臉泛濫,人工智能需要處理倫理道德問題的能力嗎?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-03-11 13:06:46   瀏覽:14050次  

導讀:在2021年全國兩會期間,有關人工智能的建議一再被來自科技界的代表提及。顯然,人工智能系統(tǒng)已經(jīng)為社會帶來了巨大好處,并且有潛力發(fā)揮更大的作用。 正如波特蘭州立大學計算機科學教授梅拉妮米歇爾在《AI 3.0:思考人類的指南》一書中所說的那樣,當下的人工...

在2021年全國兩會期間,有關人工智能的建議一再被來自科技界的代表提及。顯然,人工智能系統(tǒng)已經(jīng)為社會帶來了巨大好處,并且有潛力發(fā)揮更大的作用。

正如波特蘭州立大學計算機科學教授梅拉妮米歇爾在《AI 3.0:思考人類的指南》一書中所說的那樣,當下的人工智能技術對你可能一直在使用的許多服務都起到了核心作用,有些甚至你都沒有意識到,如語音轉(zhuǎn)錄、GPS導航和出行規(guī)劃、垃圾郵件過濾、語言翻譯、信用卡欺詐警報、書籍和音樂推薦、計算機病毒防護以及建筑物能源利用優(yōu)化等。

但在人工智能為我們的生活帶來各種便利之余,人們也難免產(chǎn)生擔憂和質(zhì)疑:讓人工智能來接管那些枯燥無聊、令人疲倦、有辱人格或者極其危險又工資低廉的工作真的能夠造福社會嗎?人工智能的研究與開發(fā)應在多大程度上受到監(jiān)管?又應該由誰來監(jiān)管?人們傾向于應該針對人工智能領域制定監(jiān)管和道德規(guī)范,但尚未達成普遍共識的地方在于:是應該立即將重點放在能夠解釋人工智能系統(tǒng)推理過程的算法方面,還是關于數(shù)據(jù)的隱私方面,或是人工智能系統(tǒng)對惡意攻擊的魯棒性(指在異常和危險情況下系統(tǒng)生存的能力)方面,又或是關于人工智能系統(tǒng)的偏見以及關于超級智能潛在的風險方面?

電影《機器人與弗蘭克》(2012)劇照。

對于即將到來的人工智能時代,人們的態(tài)度截然不同:有人認為人工智能實際上能夠消除全球貧困,大規(guī)模減少疾病,并為地球上絕大多數(shù)人提供更好的教育。有人則對未來有一種相當悲觀的預測:大批的工作被自動化技術接管導致的人類失業(yè);由于人工智能監(jiān)視而造成的對公民的隱私和權利的侵犯;不道德的自動化武器;由不透明和不可信的計算機程序做出的未經(jīng)審查的決策;種族和性別偏見被放大;大眾媒體被操縱;網(wǎng)絡犯罪增多等。

那么,我們到底如何才能創(chuàng)造出一個真正能靠自己進行學習的人工智能系統(tǒng)一個更值得信賴的系統(tǒng),一個和人類一樣,可以對其所面臨的情況進行推理并對未來進行規(guī)劃的系統(tǒng)呢?

以下內(nèi)容經(jīng)出版社授權節(jié)選自《AI 3.0:思考人類的指南》,標題為摘編者所齲

原文作者丨[美]梅拉妮米歇爾

摘編丨安也

《AI 3.0:思考人類的指南》,[美]梅拉妮米歇爾著,王飛躍、李玉珂、王曉、張慧譯,湛廬文化丨四川科學技術出版社,2021年2月。

在考慮人工智能在我們社會中的作用時,我們很容易把注意力集中在不利的一面,但是,要知道,人工智能系統(tǒng)已經(jīng)為社會帶來了巨大好處,并且它們有潛力發(fā)揮更大的作用。當下的人工智能技術對你可能一直在使用的許多服務都起到了核心作用,有些甚至你都沒有意識到,如語音轉(zhuǎn)錄、GPS導航和出行規(guī)劃、垃圾郵件過濾、語言翻譯、信用卡欺詐警報、書籍和音樂推薦、計算機病毒防護以及建筑物能源利用優(yōu)化等。

如果你是攝影師、電影制作人、藝術家或音樂家,你可能正在使用人工智能系統(tǒng)來協(xié)助開展創(chuàng)作,例如用以幫助攝影師編輯照片、協(xié)助作曲家編曲的計算機程序。如果你是學生,你可能會從適合你自己學習風格的“智能教學系統(tǒng)”中受益。如果你是科學家,你很有可能已經(jīng)使用了許多可用的人工智能工具中的一種來幫助你分析數(shù)據(jù)。

如果你是視力存在障礙的人,你可能會使用智能手機的計算機視覺應用程序來閱讀手寫的或印刷的文字,例如標牌、餐館菜單或鈔票上的文字。如果你是聽力受損人士,如今你可以在YouTube上看到非常精準的字幕,在某些情況下,你甚至可以在一次演講中獲得實時的語音轉(zhuǎn)錄。這些只是當前人工智能工具正在改善人們生活的幾個例子,許多其他的人工智能技術仍處于研究階段,但也正漸漸成為主流。

電影《機器人與弗蘭克》(2012)劇照。

在不久的將來,人工智能相關應用可能會在醫(yī)療保健領域得到廣泛普及。我們將看到人工智能系統(tǒng)幫助醫(yī)生診斷疾病并提出治療建議、研發(fā)新的藥物、監(jiān)控家中老年人的健康和安全?茖W建模和數(shù)據(jù)分析也將越來越依賴人工智能工具,例如,改善氣候變化、人口增長和人口結(jié)構、生態(tài)和食品科學以及在22世紀我們的社會即將面臨的其他重大問題的模型。對于DeepMind的聯(lián)合創(chuàng)始人戴米斯哈薩比斯來說,人工智能最重要的潛在好處是:

我們可能不得不清醒地認識到,由于這些問題可能太過復雜,即便由地球上最聰明的人來努力解決這些問題,單獨的人類個體和科學家在有生之年都很難有足夠的時間來取得足夠的創(chuàng)新和進步……我的信念是,我們需要一些幫助,而我認為人工智能就是這一問題的解決方案。

我們都曾聽說過,人工智能將會接手那些人類所討厭的工作,如那些枯燥無聊、令人疲倦、有辱人格或者極其危險又工資低廉的工作。如果這種情況真的發(fā)生了,那將會真正有利于增加人類社會福祉。隨后我將討論這個問題的另一面:人工智能奪走了太多人類的工作。盡管還有許多工作超出了機器人目前的能力,但機器人已經(jīng)被廣泛地用于瑣碎和重復的工廠任務了,隨著人工智能的發(fā)展,越來越多的這類工作可能會被自動化的機器人取代。未來人工智能應用的具體實例包括:自動駕駛卡車和出租車,用于收割水果、撲滅大火、掃除地雷和清理環(huán)境等。除此之外,機器人可能會在太空探索中發(fā)揮出比目前更大的作用。

讓人工智能來接管這些工作真的能夠造福社會嗎?我們可以回顧一下科技的發(fā)展歷史,來從中得到一些啟發(fā)。以下是人類曾經(jīng)從事過但在很久以前就已經(jīng)實現(xiàn)自動化了的一些工作的示例:洗衣工、人力車夫、電梯操作員和計算員。大多數(shù)人會認同:在以上這些例子中,使用機器代替人類做這些工作,確實讓生活變得更美好了。有人可能會爭辯說,如今的人工智能只是簡單地延續(xù)了人類的進步路線,將那些必要的但卻沒人想做的工作逐漸實現(xiàn)自動化,從而改善人類的生活。

01

人工智能大權衡:

我們是該擁抱,還是謹慎?

吳恩達曾樂觀地宣稱:“人工智能是新‘電能’。”他進一步解釋道:“正如100年前電能幾乎改變了所有行業(yè)一樣,今天我真的很難想到有哪個行業(yè)在未來幾年內(nèi)是不會被人工智能改變的。”有一個很有吸引力的類比:很快人工智能就會如電能一樣,盡管看不到,但對電子設備來說卻非常必要。電能與人工智能的一個主要的區(qū)別在于,電能在被廣泛商業(yè)化之前就已經(jīng)被充分認識,我們非常了解電能的功用,而對于如今許多人工智能系統(tǒng)的情況,我們卻沒有足夠的認識。

電影《機器人與弗蘭克》(2012)劇照。

這將帶來所謂的人工智能大權衡(great AI trade-off)。我們是應該擁抱人工智能系統(tǒng),利用其能力來改善我們的生活,甚至幫助拯救生命,并且允許這些系統(tǒng)被更加廣泛地使用呢,還是考慮當下人工智能存在難以預見的錯誤、易受偏見影響、易被黑客攻擊以及缺少透明度等特點,應該更謹慎地使用人工智能來制定決策?對不同的人工智能應用,人類需要在多大程度上參與其中?為充分信任人工智能并使其自主工作,我們應該對人工智能系統(tǒng)提出哪些要求?盡管人工智能應用的部署越來越多,并且以之為基礎的未來應用(如自動駕駛汽車)剛誕生就得到了吹捧,但這些問題仍在激烈討論中。

皮尤研究中心(Pew Research Center)的一項研究表明:人們在這些問題上普遍缺乏共識 。2018年,皮尤的分析師征集了近千名相關人士的意見,其中包括技術先驅(qū)、創(chuàng)新者、研發(fā)人員、商業(yè)和政策領袖及活動家等,并要求他們回答如下問題:

你是否會認為,到2030年,先進的人工智能和相關技術系統(tǒng)很有可能會增強人類能力并為人類賦能?也就是說,那時,大多數(shù)人在大多數(shù)時候會比今天生活得更好?還是說,先進的人工智能和相關技術系統(tǒng)很有可能會削減人類的自治權和代理權,使得那時大多數(shù)人的狀況并不會比當前更好呢?

受訪者分為了兩派:63%的人認為2030年人工智能的進步將使人類的狀況變得更好,而 37%的人則不這么認為。有人認為人工智能實際上能夠消除全球貧困,大規(guī)模減少疾病,并為地球上絕大多數(shù)人提供更好的教育。有人則對未來有一種相當悲觀的預測:大批的工作被自動化技術接管導致的人類失業(yè);由于人工智能監(jiān)視而造成的對公民的隱私和權利的侵犯;不道德的自動化武器;由不透明和不可信的計算機程序做出的未經(jīng)審查的決策;種族和性別偏見被放大;大眾媒體被操縱;網(wǎng)絡犯罪增多等。一位受訪者將未來的世界描述為:“真實,但與人類無關。”

機器智能引發(fā)了一系列棘手的倫理道德問題,與人工智能和大數(shù)據(jù)倫理相關的討論已經(jīng)可以寫滿好幾本書了。為了說明這些問題的復雜性,我將對一個在當前已經(jīng)引起人們大量關注的案例展開深入探討:人臉識別。

02

誰來監(jiān)管?人臉識別的倫理困境

電影《我,機器人》(2004)劇照。

人臉識別是使用文字來標注圖像或視頻中的人臉的任務。例如,F(xiàn)acebook將人臉識別算法應用到上傳至其網(wǎng)站的每張照片上,嘗試檢測照片中的人臉并將其與已知的用戶(至少是那些未禁用此項功能的用戶)進行匹配。如果你在Facebook的平臺上,并且某人發(fā)布了一張包含你的臉的照片,系統(tǒng)可能會詢問你,是否要在照片中標記自己。Facebook人臉識別算法的準確性令人驚嘆,但同時也令人害怕。不出所料,這種準確性源自對深度卷積神經(jīng)網(wǎng)絡的使用。該軟件不僅可以對圖像中位于中心位置的正臉進行人臉識別,而且可以對人群中的某一個人的臉進行識別。

人臉識別技術有許多潛在的好處,比如,幫助人們從照片集中檢索圖像;使視力受損的用戶能夠識別他們所遇到的人;通過掃描照片和視頻中的人臉定位失蹤兒童或逃犯,以及檢測身份盜用等。我們也很容易想得到會有許多人認為這種應用程序具有侵犯性或威脅性。例如,亞馬遜向警方推銷了它的人臉識別系統(tǒng)(使用了一個奇怪的聽起來像是反烏托邦式的名稱“Rekognition”),該系統(tǒng)可以將安保相機拍攝的視頻與一個已知罪犯或嫌疑人的數(shù)據(jù)庫進行比對,但許多人為該系統(tǒng)可能造成的隱私侵犯問題感到擔憂。

隱私問題是人臉識別技術應用中一個顯而易見的問題。即便我不使用Facebook或任何其他具有人臉識別功能的社交媒體平臺,我的照片也可能會在未經(jīng)我允許的情況下被標記并隨后在網(wǎng)上被自動識別,想一想提供收費人臉識別服務的FaceFirst公司。據(jù)《新科學家》(New Scientist)雜志報道:“Face First正在面向零售商推出一套系統(tǒng),據(jù)稱這套系統(tǒng)可以通過識別每次購物的高價值客戶來進行促銷,而當多次被投訴的顧客進入任何一家門店時,該系統(tǒng)就會發(fā)出警報。”還有許多其他公司提供類似的服務。

失去隱私并不是唯一的風險,人們對于人臉識別還有一個更大的擔憂,那就是可靠性:人臉識別系統(tǒng)會犯錯。如果你的臉被錯誤匹配,你可能會被禁止進入一家商店、 搭乘一架航班, 或被錯誤地指控為一名罪犯。

更重要的是,目前的人臉識別系統(tǒng)已經(jīng)被證明對有色人種進行識別時明顯比對白人的識別錯誤率更高。強烈反對使用人臉識別技術來對公民權利進行執(zhí)法的美國公民自由聯(lián)盟,用 535名國會議員的照片對亞馬遜人臉識別產(chǎn)品Rekognition系統(tǒng)進行了測試(使用其默認設置),將這些議員的照片與因刑事指控而被捕的人員數(shù)據(jù)庫進行了比較,他們發(fā)現(xiàn),該系統(tǒng)錯誤地將535名國會議員中的28人與犯罪數(shù)據(jù)庫中的人員匹配上了。在非洲裔美國人議員中,照片的識別錯誤率更是高達21%(非洲裔美國人只占美國國會議員的9%)。

美國公民自由聯(lián)盟的測試和其他研究結(jié)果顯示出了人臉識別系統(tǒng)的不可靠性和偏見的附加后果,因此,許多高科技公司宣布他們反對將人臉識別用于執(zhí)法和監(jiān)管。舉例來說,人臉識別公司Kairos的首席執(zhí)行官布萊恩布拉肯(Brian Brackeen)就在一篇廣為流傳的文章中寫道:

用于對嫌疑人身份進行識別的人臉識別技術,對有色人種造成了負面的影響。這是一個不容否認的事實……我和我的公司已經(jīng)開始相信,將商業(yè)人臉識別系統(tǒng)應用在任何形式的執(zhí)法或政府監(jiān)管中都是錯誤的,它為道德敗壞者的明知故犯打開了大門……我們應該追求一個未授權政府對公民進行分類、跟蹤和控制的世界。

在微軟公司網(wǎng)站上的一篇博客文章中,其總裁兼首席法律顧問布拉德史密斯(Brad Smith)呼吁國會規(guī)范人臉識別系統(tǒng)的使用:

人臉識別技術引發(fā)了一些與保障隱私和言論自由等基本人權有關的核心問題,這些問題增加了制造這些產(chǎn)品的科技公司的責任。我們認為,更加周密的政府監(jiān)管,以及圍繞其可接受的用途制定規(guī)范是必需的,而這將需要公共部門和私人機構共同采取行動。

谷歌緊隨其后,宣布其不會通過人工智能云平臺提供通用的人臉識別服務,直到他們能夠確保這一技術的使用符合谷歌的原則和價值觀,并能夠避免濫用和有害的后果。這些公司的反應令人欣慰,但這又帶來了另一個令人困擾的問題:人工智能的研究與開發(fā)應在多大程度上受到監(jiān)管?又應該由誰來監(jiān)管?

03

人工智能可以自我監(jiān)管嗎?

考慮到人工智能技術的風險,包括我在內(nèi)的許多人工智能從業(yè)者,都贊成人工智能技術應該受到某種監(jiān)管,但是監(jiān)管不應該僅僅掌握在人工智能研究人員和相關公司的手里。圍繞人工智能的問題,比如可信度、可解釋性、偏見、易受攻擊性和使用過程中出現(xiàn)的道德問題,與技術問題一樣,都是牽涉社會和政治方面的問題。于是,圍繞這些問題的討論有必要接納持有不同觀點和具有不同背景的人們。簡單地將監(jiān)管的職責交給人工智能從業(yè)者,就像將其完全交給政府機構一樣,都是不明智的。

有一個案例可以體現(xiàn)制定此類法規(guī)所面臨的復雜性,歐盟議會在2018年頒布了一項關于人工智能的法規(guī),有些人稱之為“解釋權”。這項法規(guī)要求,在“自動決策制定”的情況下,任何一個影響歐盟公民的決策都需要提供其中所涉及的與邏輯有關的有意義信息,并且這些信息需要使用清晰明了的語言,以簡潔、透明、易懂和易于訪問的形式來溝通和傳達,這打開了有關解釋問題的閘門。什么叫“有意義”或“與邏輯有關”的信息?這一法規(guī)是否禁止在制定對公民有所影響的決策時使用難以解釋的深度學習方法?例如在貸款和人臉識別等方面。這種不確定性無疑將確保政策制定者和律師在很長一段時間內(nèi)仍有取酬就業(yè)的機會。

表現(xiàn)主義科幻默片電影《大都會》(1927)》劇照。

我認為對人工智能的監(jiān)管應該參照其他領域的技術監(jiān)管,尤其是那些在生物和醫(yī)學領域的技術,例如基因工程。在這些領域,像質(zhì)量保證、技術的風險和收益分析這樣的監(jiān)管是通過政府機構、公司、非營利性組織和大學之間的合作而產(chǎn)生的。此外,現(xiàn)在已經(jīng)建立了生物倫理學和醫(yī)學倫理學領域,這些領域?qū)夹g的研發(fā)和應用方面的決策具有相當大的影響。人工智能領域的研究及其應用非常需要深思熟慮的考量和一定的道德基矗

這個基礎已經(jīng)開始形成。在美國,各州政府正在研究制定相關法規(guī),例如用于人臉識別或自動駕駛汽車的法規(guī)。更重要的是,創(chuàng)建人工智能系統(tǒng)的大學和公司也需要進行自我監(jiān)管。

許多非營利性的智庫已經(jīng)出現(xiàn),并填補了這一空缺,這些智庫通常由擔憂人工智能的富有的科技公司企業(yè)家資助。這些組織,如“人類未來研究所”(Future of Humanity Institute)、“未來生命研究所”(Future of Life Institute)和“存在風險研究中心”(Centre for the Study of Existential Risk)經(jīng)常舉辦研討會、贊助研究,以及就人工智能的安全與道德問題這一主題編著教育材料,并給出一些政策建議。一個名為“人工智能合作伙伴關系”(Partnership on AI)的傘狀組織一直在努力將這類團體聚集在一起,打造一個討論人工智能及其對人類和社會的影響的開放平臺。

電影《她》(2013)劇照。

目前存在的一個障礙是:該領域在制定監(jiān)管和道德規(guī)范的優(yōu)先事項方面,尚未達成普遍共識。是應該立即將重點放在能夠解釋人工智能系統(tǒng)推理過程的算法方面,還是關于數(shù)據(jù)的隱私方面,或是人工智能系統(tǒng)對惡意攻擊的魯棒性方面,又或是關于人工智能系統(tǒng)的偏見以及關于超級智能潛在的風險方面?我個人的觀點是,人們對超級智能可能帶來的風險給予了太多關注,而對于深度學習缺乏可靠性和透明性,及其易受攻擊性的關注則遠遠不夠。

04

需要把處理倫理道德問題的能力,

賦予機器嗎?

到目前為止,我的討論集中于人類如何使用人工智能的道德問題,但是還有一個重要的問題:機器本身是否能夠擁有自己的道德意識,并且足夠完備以使它們能夠獨立做出道德決策而無須人類監(jiān)管?如果我們要給予人臉識別系統(tǒng)、無人駕駛汽車、老年護理機器人甚至機器人士兵決策自主權,難道我們不需要把人類所擁有的處理倫理道德問題的能力賦予這些機器嗎?

自從人們開始思考人工智能,就開始了關于“機器道德”問題的思考。也許,關于機器道德的最著名的討論來自艾薩克阿西莫夫(Isaac Asimov)的科幻小說,他在小說中提出了著名的“機器人三定律”:

第一定律:機器人不得傷害人類個體,或者對人類個體將遭受的危 險袖手旁觀;

第二定律:機器人必須服從人類給予它的命令,當該命令與第一定 律沖突時例外;

第三定律:機器人在不違反第一、第二定律的情況下,要盡可能地 保護自己。

這些定律已非常知名,但實際上,阿西莫夫提出機器人三定律的目的是證明這套 定律會不可避免地失敗。阿西莫夫在 1942 年首次提出這些定律時講述了一個名為 “逃跑”的故事:如果一個機器人遵循第二定律向危險物質(zhì)移動,這時第三定律將會生效,機器人隨即遠離該物質(zhì);此時第二定律又重新開始生效。于是,機器人將被困 在一個無盡的循環(huán)中,最終對機器人的人類主人造成了災難性的后果。阿西莫夫的故 事通常集中討論把倫理規(guī)則編程置入機器人后可能引發(fā)的意外后果。阿西莫夫是有先 見之明的:正如我們所看到的,不完整的規(guī)則和意外所引發(fā)的問題已經(jīng)妨礙了所有基 于規(guī)則的人工智能方法,道德推理也不例外。

科幻小說家亞瑟克拉克(Arthur C. Clarke)在其 1968 年出版的《2001:太空漫游》中描寫了一個類似的情節(jié)。人工智能計算機 HAL 被編程為始終對人類保持誠實,但同時又要對人類宇航員隱瞞他們的太空任務的真實目的。與阿西莫夫的笨拙的機器人不同,HAL飽受這種認知失調(diào)的心理痛苦的折磨:“他意識到隱瞞真相與保持忠誠之間的這種沖突正在慢慢地破壞他的心智。”結(jié)果是,這種計算機“神經(jīng)癥”使 HAL變成了一名殺手。

電影《2001:太空漫游》(1968)劇照。

影射到現(xiàn)實生活中的機器道德,數(shù)學家諾伯特維納早在1960年就指出:“我們最好非常確信,給機器置入的目標正是我們真正想要的目標。”維納的評論捕捉到了人工智能中所謂的價值一致性問題:人工智能程序員面臨的挑戰(zhàn)是,如何確保人工智能系統(tǒng)的價值觀與人類保持一致。可是,人類的價值觀又是什么?假設存在社會共享的普世價值有任何意義嗎?

歡迎來到道德哲學的101課 ,我們將從每個道德哲學系學生最喜歡的思想實驗電車難題開始。假設你正在沿著一組軌道駕駛一輛加速行駛的有軌電車,就在正前方,你看到有5名工人站在軌道中間,你踩剎車卻發(fā)現(xiàn)它們不起作用。幸運的是,有一條通向右邊的軌道支線,你可以把電車開到支線上,以免撞到那5名工人,但不幸的是,在支線軌道中間也站著1名工人。這時候,你面臨一個兩難的選擇:如果你什么都不做,電車就會直接撞到5名工人身上;如果你把電車開向右邊,電車就會撞死1名工人。從道德上講,你應該怎么做?

電車難題一直是20世紀大學道德課的一節(jié)主要內(nèi)容。多數(shù)人認為,從道德上來說更可取的做法是:司機把電車開到支線上,殺死1名工人,救下另外5名工人。

后來,哲學家們發(fā)現(xiàn):對本質(zhì)上相同的困境選取一個不同的框架,就會導致人們給出相反的答案。事實證明,人類在關于道德困境的推理中,對困境的呈現(xiàn)方式是非常敏感的。最近,電車難題又作為媒體對自動駕駛汽車的報道的一部分而出現(xiàn)了。如何對一輛自動駕駛汽車進行編程使其能夠處理這些問題,已經(jīng)成為人工智能倫理討論的一個中心議題。許多人工智能倫理思想家指出:電車問題本身,即駕駛員只有兩個可怕的選擇,是一個高度人為設計的場景,而在現(xiàn)實世界中,駕駛員永遠不會遇到這樣的場景;但是,電車問題已經(jīng)成為我們應該如何為自動駕駛汽車編程,以讓它們自己做出符合道德的決策這一問題的象征。

電影《巨人:福賓計劃》(1976)劇照。

2016年,3位研究人員在數(shù)百人中進行了調(diào)研,給定類似電車問題的自動駕駛汽車可能面臨的場景,并詢問他們對不同行為的道德觀念。最終,76%的參與者回答,自動駕駛汽車犧牲1名乘客比殺死10名行人,從道德上來說更可齲可是,當被問及是否會購買這樣一輛被編程為會為了救下更多行人而選擇犧牲其乘客的汽車時,絕大多數(shù)參與調(diào)查者的回答是否定的。

研究人員稱:“我們發(fā)現(xiàn)在6項亞馬遜土耳其機器人參與的研究中,參與者認同這種效益主義的自動駕駛汽車,即犧牲乘客以獲取更大利益的自動駕駛汽車,并希望其他人會購買它們,但他們自己更愿意乘坐那些不惜一切代價保護乘客的自動駕駛汽車。”心理學家喬書亞格林(Joshua Greene)在他對這項研究的評論中指出:“在將我們的價值觀置入機器之前,我們必須弄清楚如何讓我們的價值觀清晰且一致。”這似乎比我們想象的要更難。

一些人工智能倫理研究人員建議我們放棄直接對機器的道德規(guī)則進行編程的嘗試,讓機器通過觀察人類的行為自行學習符合道德的價值觀;然而,這種自學方法也存在我在上一章中所介紹的機器學習會面臨的所有問題。

在我看來,在賦予計算機“道德智能”方面的進展不能與其他類型智能的進展分開,真正的挑戰(zhàn)是創(chuàng)造出能夠真正理解它們所面臨的場景的機器。正如阿西莫夫的故事所闡明的:除非機器人能夠理解不同場景下傷害的內(nèi)涵,否則它無法可靠地執(zhí)行避免傷害人類的命令。對道德進行推理要求人們認識到原因和結(jié)果的關系,想象可能的不同未來,了解其他人的信念和目標,并預測一個人處在各種情況下會采取的各種行動的可能結(jié)果。換句話說,可信任的道德理性的一個先決條件是通用的常識,而這,正如我們所見,即使在當今最好的人工智能系統(tǒng)中也是缺失的。

到目前為止,我們已經(jīng)看到,在龐大的數(shù)據(jù)集上訓練的DNN如何在特定任務上與人類的視覺能力相媲美;我們也看到了這些網(wǎng)絡的一些弱點,包括它們對大量人類標記數(shù)據(jù)的依賴,以及它們以非人類的方式失敗的傾向。我們?nèi)绾尾拍軇?chuàng)造出一個真正能靠自己進行學習的人工智能系統(tǒng)一個更值得信賴的系統(tǒng),一個和人類一樣,可以對其所面臨的情況進行推理并對未來進行規(guī)劃的系統(tǒng)?


贊助本站

相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港