展會信息港展會大全

向善還是作惡?AI 開發(fā)者如何擺脫倫理困境?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-08-05 08:18:13   瀏覽:32950次  

導讀:撰文:王言心 編審:寇建超 排版:張熙 在大多數(shù)科幻電影中,人工智能(AI)最典型的形象莫過于冷酷和無情的智慧機器,它們具備了人類大腦的部分智力,但 沒有人類的情感,當然也就沒有所謂的 人性 。 事實上,盡管近年來 AI 技術發(fā)展迅猛,給我們的生活帶來...

撰文:王言心 編審:寇建超

排版:張熙

在大多數(shù)科幻電影中,人工智能(AI)最典型的形象莫過于冷酷和無情的智慧機器,它們具備了人類大腦的部分智力,但沒有人類的情感,當然也就沒有所謂的 “人性”。

事實上,盡管近年來 AI 技術發(fā)展迅猛,給我們的生活帶來了前所未有的改變,但它仍是一種尚未完全成熟的計算機技術,因而AI 可能導致的倫理道德后果也難以準確預料

(來源:Pixabay)

近日,來自挪威的科學家 Inga Strümke、Marija Slavkovik 和 Vince Madai 在一篇名為《人工智能發(fā)展中的社會困境以及我們?yōu)槭裁匆鉀Q它》(The social dilemma in AI development and why we have to solve it)的論文中就指出了現(xiàn)有 AI 存在的倫理道德問題。

在他們看來,AI 發(fā)展中面臨的最大問題之一是,AI 開發(fā)者在 AI 道德發(fā)展方面存在嚴重的社會困境(social dilemma),如果我們無法制定出一套統(tǒng)一有效的職業(yè)道德準則和立法,這個社會困境就會一直存在,并且影響甚至危害人類的生活。

AI 發(fā)展中的社會困境

社會困境是指個人狹隘的自我利益與更大的社會群體的利益直接相悖,如果每個人都試圖以犧牲群體利益為代價最大化自己的利益,那么每個群體成員的凈結(jié)果都會比采用合作社時更糟糕。

社會困境最典型的例子就是公地悲劇(the tragedy of the commons)。

公地悲劇能夠更好地說明現(xiàn)實生活中的社會困境,每個參與者都有權使用私人資源,但也可以使用公共共享資源。

一個純粹自利的參與者將從共享資源中獲得最大的價值,甚至是破壞它,然后再利用私人資源,這個過程最終會給所有人帶來更壞的結(jié)果。

過度使用公共土地、空氣和水資源有時被認為是這種社會困境的現(xiàn)實世界版本。

圖|“公地悲劇” 是一種解釋過度開發(fā)的好例子(來源:維基百科)

Strümke 等人表示,在 AI 發(fā)展的社會困境中,主要存在三方面利益沖突:社會、商業(yè)公司,和作為社會成員和商業(yè)公司雇員的 AI 開發(fā)者。

社會的利益是道德發(fā)展,商業(yè)公司的利益是利潤和市場中的生存,AI 開發(fā)者的利益主要是維持他們的就業(yè),其次是 AI 的道德發(fā)展,因為開發(fā)者也是社會的一部分。

因此,AI 開發(fā)者必須權衡其作為社會成員的利益和作為公司雇員的利益,這就是他們面臨的社會困境。

如今,AI 技術可以為商業(yè)公司帶來不菲的利潤。因此,商業(yè)公司為了讓自己處于競爭態(tài)勢,必須要快速發(fā)展 AI 技術。然而,技術的快速發(fā)展可能與道德規(guī)范背道而馳:

后者需要降低開發(fā)速度以實施必要的道德分析,甚至可能需要基于道德考慮決定取消某些系統(tǒng)。

在這種情況下,如果 AI 開發(fā)者對 AI 發(fā)展道德表達了擔憂或因為某些道德問題拒絕為公司發(fā)展做出 “貢獻”,他們則可能會丟失這份工作。

因此,AI 開發(fā)者一直糾結(jié)于 AI 發(fā)展道德問題與自己的工作利益沖突之間。

AI 存在的道德問題

Strümke 等人在論文中指出,當前的 AI 仍然存在一些發(fā)展道德問題,其中最典型的就是歧視和偏見。

也許有人會感到迷惑與不解:就像我們潛意識中認為的那樣,AI 冷漠又無情,根本沒有人類的感情,何來歧視與偏見呢?

事實上,AI 技術本身確實不存在歧視與偏見,但 AI 技術的背后,需要有 AI 研究人員用來訓練的大量數(shù)據(jù),盡管 AI 本身不知道歧視和偏見是何種行為,以及蘊含著何種意思,但其背后的研究人員可能會有這些想法。

因此,AI 怎么看待這個世界,在一定程度上反映了人類的想法,如果其背后的研究人員存在歧視與偏見,那設計、開發(fā)出的 AI 必然也存在同樣的道德問題。

(來源:Pixabay)

在 AI 技術應用領域,人臉識別是 AI 被廣泛應用于人類日常生活中的一種應用方向,而它恰巧會成為種族和性別偏見的一個潛在來源。

2018 年 2 月,麻省理工學院(MIT)媒體實驗室計算機科學家 Joy Buolamwini 發(fā)現(xiàn),IBM、微軟等公司的性別識別 AI 系統(tǒng)能以 99% 的精度從一張照片中準確識別出一個人的性別,但僅限于白人。而用于黑人女性時,這個數(shù)字會驟降至 35%。

一個最合理的解釋是,AI 的 “偏見” 取決于其背后算法訓練的數(shù)據(jù),如果用于訓練的數(shù)據(jù)中白人男性比黑人女性更多,那顯然白人男性的識別率就會更高。后來,IBM 宣布他們已經(jīng)采用了新的數(shù)據(jù)集并重新訓練,微軟也表示會采取措施提高準確性。

AI 中的道德準則與立法

事實上,AI 開發(fā)中的道德準則非常重要,因為不道德的 AI 開發(fā)會對個人和整個社會產(chǎn)生嚴重的負面影響。

受近期提出的 AI 監(jiān)管框架的影響,人們可能會認為,AI 開發(fā)的道德挑戰(zhàn)完全可以通過立法得到解決。

但事實上,立法根本無法有效地解決這個問題:因為立法的發(fā)展速度比技術發(fā)展慢得多,這意味著立法可能在危害結(jié)果已經(jīng)造成之后才會出臺。

此外,立法會禁止任何可能不道德或被濫用的行為,這將會在一定程度上阻礙 AI 技術的進步,而且對小企業(yè)的影響超過對大型企業(yè)的影響,會加劇用戶和供應商之間已經(jīng)存在的權力不平衡問題。

當然,職業(yè)道德準則并不是憑空制定的,它需要參考倫理道德理論、社會期望以及從業(yè)者的形象。

因此,它也從來不是一成不變的,而是需要根據(jù)技術進步、社會規(guī)范和價值觀的發(fā)展以及監(jiān)管制度而不斷修訂。

然而,盡管它們是動態(tài)的,但在任何給定的時間內(nèi),仍然有一個唯一的版本是有效的,可以保護 AI 開發(fā)者免受社會困境的影響,并最大限度地為社會帶來利益。

但直到如今,依然沒有一個被廣泛接受的 AI 職業(yè)道德準則存在。

(來源:Pixabay)

論文作者認為,可以歸因于以下兩個主要原因:

第一點,目前的分析主要接受許多給定的邊界條件,而不是建議如何改變這些條件。

即使像 IEEE 這樣的大型機構采用了 AI 開發(fā)的職業(yè)規(guī)范準則,也仍然存在著大量挑戰(zhàn)。比如,到底誰是 AI 開發(fā)者?加入這些組織并遵守準則的動機是什么?如果存在潛在的巨大收益,如何防止組織放棄準則?

更糟糕的是,幾個相互競爭的組織可能會提出不同的準則,然后將該領域分割開,讓開發(fā)人員和公眾無法真正了解 AI 行業(yè)的道德規(guī)范。

此外,這些努力甚至也可能被大型科技公司劫持:“支持” 某些組織發(fā)布道德準則,對內(nèi)容產(chǎn)生重大影響,本質(zhì)上導致一種新的道德清洗(ethics washing)形式。

另外一點是,只要當前的舉措不能有效解決開發(fā)者所處的社會困境,AI 的職業(yè)道德準則就不會有任何作用。

比如,已有研究工作討論了在開發(fā)團隊中加入倫理學家可能會有助于合乎倫理的 AI 開發(fā)。然而,如果這些倫理學家也屬于這一家公司,社會困境也同樣適用于他們。

但反過來,建立統(tǒng)一的 AI 職業(yè)道德準則又是解決 AI 開發(fā)者社會困境的最佳途徑。

拯救 AI 開發(fā)者:一種可能的解決方案

為了避免 AI 發(fā)展的道德危機,Strümke 等人提出了一個有效的應對方案。

首先,AI 的發(fā)展必須成為一個統(tǒng)一的職業(yè),就像醫(yī)學領域那樣,必須設定相應的從業(yè)許可,該許可必須是強制性的,且適用于所有中高風險 AI 系統(tǒng)的開發(fā)人員。

AI 開發(fā)者將以一種前所未有的方式得到保護,被其他專業(yè)人員取代的可能性非常小,由于社會困境而被解雇的可能性就會大大降低,因為貪心的老板們知道,所有 AI 開發(fā)者都遵守相同的準則,不會為了商業(yè)利益違反準則。

因此,AI 開發(fā)者有權拒絕執(zhí)行不道德的開發(fā)行為,而不用擔心社會困境帶來的后果。

圖|a) 之前,社會對道德行為的需求和雇主開發(fā)產(chǎn)品的需求使開發(fā)者陷入兩難境地;b) 如今,開發(fā)者之前面臨的兩難困境轉(zhuǎn)變成了社會和雇主必須使用既定方法來處理的一種權衡(來源:該論文)

其次,要建立一個全國性 AI 開發(fā)者組織,來維護雇用 AI 開發(fā)者的注冊登記。

這些組織,包括其所有成員,將成為 AI 職業(yè)道德準則發(fā)展的核心,并且負責維護、更新和完善這些準則。凡是不遵守職業(yè)道德準則的人都將被吊銷從業(yè)執(zhí)照。

我們無法否認,建立統(tǒng)一的道德準則是一件難事,但這是解決 AI 開發(fā)者社會困境的最有效途徑。

一旦有了統(tǒng)一的職業(yè)道德規(guī)范,它將能阻止一些公司和政府實施不道德獲利行為,從而避免 AI 給人類及社會帶來的不良后果。

關于以上討論,你怎么看?歡迎在留言區(qū)發(fā)表你的觀點~

參考資料:

https://arxiv.org/abs/2107.12977


贊助本站

相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港