展會信息港展會大全

人工智能和法律、倫理和政策
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-10-29 07:31:01   瀏覽:18373次  

導讀:莫拉r格羅斯曼。資料來源:滑鐵盧大學 莫拉r格羅斯曼,法學博士,博士,Cheriton計算機科學學院研究教授,Osgoode Hall法學院兼職教授,向量人工智能研究所附屬教師。她也是Maura Grossman Law的負責人,這是一家位于紐約州布法羅的eDiscovery法律和咨詢公司...

莫拉r格羅斯曼。資料來源:滑鐵盧大學

莫拉r格羅斯曼,法學博士,博士,Cheriton計算機科學學院研究教授,Osgoode Hall法學院兼職教授,向量人工智能研究所附屬教師。她也是Maura Grossman Law的負責人,這是一家位于紐約州布法羅的eDiscovery法律和咨詢公司。

莫拉最出名的是她在技術輔助審查方面的工作,這是一種有監(jiān)督的機器學習方法,她和她的同事計算機科學教授戈登v科馬克(Gordon V. Cormack)開發(fā)的,旨在加快高風險訴訟中的文件審查。她教授人工智能:法律、倫理和政策,這是滑鐵盧大學計算機科學研究生和奧斯古德大學法律系高年級學生的課程,同時也是滑鐵盧大學人工智能和數(shù)據(jù)科學碩士課程要求所有學生參加的倫理研討會。

什么是人工智能?

人工智能是一個概括性術語,首次在1956年達特茅斯的一次會議上使用。人工智能指的是做智能事情的計算機執(zhí)行思維、推理和預測等認知任務曾經(jīng)被認為是人類的專屬領域。它不是一種單一的技術或功能。

一般來說,人工智能涉及算法、機器學習和自然語言處理。所謂算法,我們只是指一套用來解決問題或執(zhí)行任務的規(guī)則。

基本上有兩種類型的人工智能,盡管有些人認為有三種。第一種是狹隘或薄弱的AI。這種人工智能在某些任務上至少和人類做得一樣好,甚至更好。我們今天的人工智能技術可以比放射科醫(yī)生更準確地讀取核磁共振成像。在我的法律領域,我們有技術輔助的審查-人工智能,它可以比律師更快、更準確地找到法律證據(jù)。還有一些程序下國際象棋或AlphaGo比頂級棋手還好。

第二種類型是一般或強AI;這種人工智能在大部分事情上都比人類做得好。這種人工智能還不存在,關于我們是否會有強大的人工智能存在著爭論。第三種類型是超級智能人工智能,這在科幻小說中更常見。這種類型的人工智能將在許多領域遠遠超過人類所能做的任何事情。這顯然是有爭議的,盡管有些人將其視為即將到來的生存威脅。

人工智能在哪里被使用?

人工智能應用于無數(shù)領域。

在醫(yī)療保健領域,人工智能被用于在核磁共振掃描中檢測腫瘤、診斷疾病和開出治療處方。在教育領域,人工智能可以評估教師的表現(xiàn)。在交通運輸方面,它被用于自動駕駛汽車、無人機和物流。在銀行業(yè),它是決定誰能得到抵押貸款。在金融領域,它被用來檢測欺詐行為。執(zhí)法部門使用人工智能進行面部識別。政府利用人工智能來確定利益。在法律上,人工智能可以用來檢查當事人所寫的案情摘要,并查找丟失的案件引證。

人工智能已經(jīng)融入到社會結構中,它的用途幾乎是無窮無盡的。

什么是道德人工智能?

人工智能是不道德的,就像螺絲刀或錘子是不道德的一樣。人工智能可能被用于道德或不道德的方面。然而,人工智能的做法引發(fā)了幾個倫理問題。

人工智能系統(tǒng)從過去的數(shù)據(jù)中學習,并將所學應用到新的數(shù)據(jù)中。如果用于訓練算法的舊數(shù)據(jù)不具有代表性或具有系統(tǒng)性偏差,偏差就會出現(xiàn)。如果你在創(chuàng)建一個皮膚癌檢測算法而大部分的訓練數(shù)據(jù)都是從白人男性那里收集的,那么它就不能很好地預測黑人女性的皮膚癌。有偏差的數(shù)據(jù)導致有偏差的預測。

在算法中如何加權特征也會產(chǎn)生偏差。開發(fā)算法的開發(fā)者如何看待這個世界,以及這個人認為什么是重要的包括什么特征,排除什么特征可能會帶來偏見。如何解釋算法的輸出也是有偏見的。

人工智能是如何受到監(jiān)管的?

到目前為止,大多數(shù)法規(guī)都是通過“軟法律”道德準則、原則和自愿標準。有成千上萬的軟法律,其中一些是由公司、行業(yè)團體和專業(yè)協(xié)會起草的。一般來說,有相當程度的共識會被認為是適當?shù)幕蚩山邮艿氖褂脼槔?人工智能不應該用于有害的方式延續(xù)偏見,AI應該有某種程度的透明度和explainability,它應該是有效的和可靠的目的。

迄今為止,制定一部管理人工智能的法律的最全面努力是由歐盟在2021年4月提出的。這項歐盟立法草案是第一個全面的人工智能法規(guī)。它將人工智能劃分為風險類別。人工智能的一些用途被認為是不可接受的高風險,它們往往是使用人工智能來操縱人的心理。另一個被禁止的用途是人工智能來確定社會分數(shù),一個人會被監(jiān)控,做了想做的事就會得到分數(shù),做了不想做的事就會失去分數(shù)。第三種被禁止的用途是實時生物識別監(jiān)視。

下一個類別是高風險的人工智能工具,比如用于醫(yī)療和自動駕駛汽車的工具。在使用這種人工智能之前,公司必須滿足各種要求,進行風險評估,保存記錄,等等。還有一些低風險的用途,比如回答問題的網(wǎng)絡聊天機器人。這樣的人工智能需要透明度和披露,但僅此而已。

人工智能能符合人類的價值觀或社會期望嗎?

如果你我不能就公平的定義達成一致,那就很難訓練出公平的算法。你可能認為公平意味著算法應該平等對待每個人。我可能會認為,公平意味著實現(xiàn)公平或彌補過去的不平等。

我們的人類價值觀、文化背景和社會期望往往不同,因此很難確定算法應該優(yōu)化什么。我們只是還沒有達成共識。

在機器學習中,我們通常不知道系統(tǒng)在做什么決定。AI的透明度和可解釋性重要嗎?

這是個很難回答的問題。關于透明度和可解釋性,我們確實有話要說,但在許多情況下,如果AI經(jīng)過充分測試,能夠證明它符合預期目的,那么它就足夠好了。如果醫(yī)生開了一種藥,藥效的生化機制可能是未知的,但如果藥物已經(jīng)在臨床試驗中被證明是安全有效的,那就足夠了。

另一種看待這個問題的方式是,如果我們選擇使用不那么復雜的AI,我們可以更容易地解釋,但它不如一個更不透明的算法準確或可靠,這是一個可以接受的權衡嗎?為了更加透明和可解釋,我們愿意放棄多少精確度?

這可能取決于算法的用途。如果它被用于判決人們,也許可解釋的人工智能更重要。在其他領域,也許準確性是更重要的標準。這歸結為價值判斷。


贊助本站

相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港