展會信息港展會大全

為了獲諾獎,AI不僅要懂物理學,還要懂哲學?
來源:互聯(lián)網   發(fā)布日期:2024-10-09 18:47:42   瀏覽:3651次  

導讀:劃重點 012024年諾貝爾物理學獎頒給了人工神經網絡和機器學習,以表彰其基礎發(fā)現(xiàn)和發(fā)明。 02人工智能模型在醫(yī)療診斷、財務決策、求職招聘等領域發(fā)揮著重要作用,但解釋其決策仍是一個挑戰(zhàn)。 03哈娜喬克勒教授研發(fā)了名為ReX的工具,可以解釋圖像標注人工智能...

劃重點

012024年諾貝爾物理學獎頒給了人工神經網絡和機器學習,以表彰其基礎發(fā)現(xiàn)和發(fā)明。

02人工智能模型在醫(yī)療診斷、財務決策、求職招聘等領域發(fā)揮著重要作用,但解釋其決策仍是一個挑戰(zhàn)。

03哈娜喬克勒教授研發(fā)了名為ReX的工具,可以解釋圖像標注人工智能模型(稱為圖像分類器)的決策過程。

04實際因果關系是一種適用于任何因果系統(tǒng)的通用哲學框架,ReX的工作無需了解人工智能系統(tǒng)的內部運作。

05未來,喬克勒和她的團隊將繼續(xù)將ReX技術應用于大型語言模型,如ChatGPT。

以上內容由騰訊混元大模型生成,僅供參考

為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

認真閱讀下面的文章,并思考文末互動提出的問題,嚴格按照互動:你的答案格式在評論區(qū)留言,就有機會獲得由電子工業(yè)出版社提供的優(yōu)質科普書籍《AI for Science:人工智能驅動科學創(chuàng)新。

就在昨天,2024年諾貝爾物理學獎頒給了人工神經網絡和機器學習,以表彰“利用人工神經網絡進行機器學習的基礎發(fā)現(xiàn)和發(fā)明”。簡單來講,人工神經網絡是計算機處理大量數據和分析復雜問題的“大腦”,通過節(jié)點(也就是“神經元”)之間不同程度的關聯(lián)來實現(xiàn)程序的處理,隨著程序執(zhí)行,不同節(jié)點之間的關聯(lián)程度會隨著節(jié)點的活躍變強或變弱,從而獲得類似“學習”的過程,并合理地給出我們期望的結果。毫無疑問,人工智能(AI)在我們社會中的重要性正在逐步增長,F(xiàn)在,AI模型經常被用來協(xié)助人們做出影響生活的重大決策,包括醫(yī)療診斷、財務決策、求職招聘等等。然而,盡管人工智能日益融入社會,我們仍然難以解釋人工智能系統(tǒng)為什么會做出這樣的決定。AI模型如何通過大腦掃描來判斷大腦是正常還是有一個腫瘤?為什么ChatGPT決定輸出這一段文字而不是另外一段?在創(chuàng)建有益的人工智能系統(tǒng)時,這些都是需要回答的重要問題。但在回答這些問題之前,首先要解決的一個挑戰(zhàn)是關于哲學的問題:我們應該如何解釋AI系統(tǒng)的決策?解釋AI的決策又意味著什么?為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

哈娜喬克勒倫敦國王學院教授哈娜喬克勒(Hana Chockler)致力于結合哲學和計算機科學的知識,研究解釋人工智能系統(tǒng)決策的新方法。正如喬克勒在最近的一次活動上解釋的,她和她的團隊研發(fā)了一種名為ReX(Responsibility-based Explanations,基于因果的解釋)的工具,這個工具可以解釋為什么圖像標注人工智能模型(稱為圖像分類器)會以它們使用的這種方式標注圖像。她的研究成果可以直接應用于醫(yī)學影像領域,讓醫(yī)生更好地理解人工智能系統(tǒng),甚至與人工智能系統(tǒng)互動,由人工智能系統(tǒng)判斷大腦掃描結果是否健康。重要的是,使用ReX無需了解人工智能系統(tǒng)的內部運作,這使它成為一種通用工具,不僅可以應用于當前的人工智能系統(tǒng),還可以應用于未來更復雜的人工智能系統(tǒng)。喬克勒的職業(yè)生涯始于計算機科學領域中的形式驗證。在這一領域,計算機科學家使用形式數學方法來確定程序是否真的做了我們想要它們做的事情。也就是說,即使驗證過程說程序是正確的,我們能確定程序真的做了我們想要做的所有事情嗎?“事后看來”,喬克勒說,“這本來就是關于解釋的問題:我們如何解釋肯定的答案?如何解釋沒有錯誤出現(xiàn)?”在喬克勒攻讀博士學位期間,計算機科學家、哲學家約瑟夫哈爾彭(Joseph Halpern)的一次演講引起了她的注意。在哲學中,解釋結果的問題屬于因果關系的范疇。要解釋一個結果,我們必須首先知道導致這個結果的原因是什么。一旦我們了解了結果是如何造成的,我們就可以通過給出原因來解釋結果。當時,哈爾彭正在開創(chuàng)一個新的哲學框架來定義因果關系,他稱之為實際因果關系。在聆聽哈爾彭的演講時,喬克勒意識到哈爾彭用他的框架解決的問題與她自己正在研究的問題非常相似。唯一不同的是,在她的研究中,需要解釋的結果是計算機程序的輸出。“這是一個幸運的巧合”,她說,“當時我正在研究純粹的計算機科學問題,卻突然發(fā)現(xiàn)這些哲學概念實際上是有用的,這對我來說是一個很大的范式上的轉變。”喬克勒開始與哈爾彭合作,并與她的博士生導師奧爾娜庫普弗曼(Orna Kupferman)一起撰寫了一篇論文,展示了她在博士論文中使用的形式驗證方法怎么從實際因果關系的角度進行重構。重要的是,他們還介紹了如何量化因果關系或賦予它一個數值,這對她今后的工作非常重要。這種量化的想法將為實際因果關系成為解釋大人工智能模型輸出結果的強大工具奠定基礎。不過,當時并沒有人關注到這項工作。那是在2002年,人工智能當時正處于一個不怎么被重視的時期。“沒有人明白我們在說什么”,喬克勒回憶道,“每個人都在想,為什么我們突然把哲學引進來了?這是什么鬼話?”她說,“當然,現(xiàn)在看起來這件事情很滑稽,因為現(xiàn)在每個人都在討論因果關系。”什么是因果關系?為了理解哲學家是如何思考因果關系的,可以想象這樣一個場景,外面下著雨,而你正走在回家的路上。當你到家時,從頭到腳都濕透了。那么雨水導致你全身濕透究竟是什么意思?為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

1739年,蘇格蘭哲學家大衛(wèi)休謨(David Hume)首次定義了因果關系,稱為反事實因果關系。根據反事實因果關系,休謨會說:下雨導致你淋雨,因為如果沒有下雨,你就不會淋雨。為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

這樣解釋存在的一個問題是,它沒有考慮到多個重疊原因的可能性。不妨考慮這樣一種情況:你走在回家的路上,外面下著雨。這時候,一輛汽車駛過一個水坑,濺了你一身水。當你回到家時,身上又濕透了。在這種假設下,如果沒有下雨,你還是會被汽車打濕。同樣,如果汽車沒有駛過,你還是會被雨淋濕。因此,雨和車都不是你被淋濕的反事實原因。但可以肯定的是,它們確實是你被淋濕的原因為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

實際因果關系實際因果關系通過拓寬因果關系的概念來解決這個問題。在實際因果關系下,我們可以想象一個假想世界,它在各方面都與現(xiàn)在這個世界一樣,只是沒有汽車,在這個世界里,雨是你被淋濕的反事實原因,又因為我們可以想象這樣一個世界,所以我們說雨可以是你被淋濕的實際原因;同樣,我們還可以想象另一個假想世界,這個世界除了沒有下雨,其他方面都是一樣的,在這個世界里,汽車濺到你身上是你被淋濕的反事實原因。因此,在原來的世界里,汽車濺到你身上也是你被淋濕的一個實際原因。為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

實際因果關系的一大優(yōu)勢在于,它可以量化原因的重要性。在第一個沒有汽車的世界里,雨完全是你被淋濕的原因。在第二個世界中,我們只需要改變可能世界中的一件事(移走汽車),雨就會成為你被淋濕的反事實原因。在這種情況下,雨對你被淋濕有1/2的責任。我們可以想象這樣一個世界:10輛汽車駛過,都把你從頭到腳濺濕了。在這種不幸的情況下,我們需要改變可能世界中的10件事情,雨才能成為反事實原因。因此,我們可以說,雨對你被淋濕負有1/(10+1) = 1/11的責任。一般來說,如果我們需要改變可能世界中的n件事情才能使一個事件成為反事實原因,我們就說這個事件對結果的責任是 1/(1+n)。實際因果關系允許我們?yōu)椴煌脑蚍峙洳煌潭鹊?strong>責任,從而使我們能夠將注意力集中在最重要的原因上。這對于軟件工程或人工智能模型等大型系統(tǒng)來說非常重要,因為在這些系統(tǒng)中可能存在許許多多的“原因”。分析人工智能系統(tǒng)計算機科學家測試人工智能的主要工具之一是圖像分類問。給定一幅圖像,人工智能系統(tǒng)如何分辨其內容?假設人工智能認為圖像是一只孔雀,它為什么會做出這樣的判斷呢?人類可能會解釋說,這是一只孔雀,因為它的尾巴上有藍色和綠色的花紋。喬克勒和她的同事開發(fā)的ReX工具,從人工智能模型中獲得類似的因果解釋。對于人工智能模型來說,因果解釋是指原始圖片的任何部分,其大小都剛好足以識別原始圖片的內容。在孔雀圖片的例子中,人工智能可能會解釋說,它之所以判定圖片是孔雀,是因為根據組成尾巴的像素足以做出這樣的判定,但任何更小的像素子集都會導致結果是不確定的。為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

孔雀的圖像,以及為何將該圖像歸類為孔雀的因果解釋。ReX通過向人工智能模型提供許多與原始圖像略有不同的圖,從而從人工智能模型中獲得這種因果解釋。通過觀察人工智能如何對每張略有改動的圖像進行分類,ReX可以很好地估計原始圖像的每個像素對人工智能整體決策的影響程度。用實際因果關系的語言來說,它考慮了附近許多不同的假想世界,以估計每個原始像素的權重。在對每個像素點進行估算后,它就會選擇足夠多的權重最大的像素點,從而將整個圖像歸類為孔雀圖像。為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

熱圖顯示將圖片識別為孔雀的最重要的像素點。由于實際因果關系是一個適用于任何因果系統(tǒng)的通用哲學框架,因此ReX的工作無需了解人工智能系統(tǒng)的內部運作。無論人工智能系統(tǒng)的內部結構如何,只要我們能給它輸入信息并讀取相應的輸出結果,ReX就能讓我們從人工智能中獲得解釋。正因為如此,它可以應用于我們無法直接理解的過于龐大或復雜的人工智能系統(tǒng)。為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

核磁共振掃描顯示存在腦腫瘤ReX的一個直接用途是醫(yī)療成像領域。當一名疑似腦腫瘤患者接受核磁共振檢查時,人工智能系統(tǒng)會自動通過掃描結果判斷是否含有腫瘤。如果AI認為掃描結果中有腫瘤,就會立即轉給醫(yī)生。如果不是,掃描結果仍會發(fā)送給醫(yī)生,但可能要過幾天才能送到醫(yī)生手中。有了ReX,人工智能系統(tǒng)可以響應:"腫瘤在這里!"這有助于醫(yī)生更快地進行診斷。ReX還能解釋圖像中沒有腫瘤的原因。由于腫瘤顯示的顏色往往與健康組織不同,ReX可以生成一個由健康組織顏色像素組成的網格,然后說:“我知道這些組織都是健康的,在這些健康組織之間沒有腫瘤。因此,在這次腦部掃描中不可能有腫瘤。如果醫(yī)生不同意,他們可以告訴人工智能更仔細地檢查可疑區(qū)域,從而支持醫(yī)生和人工智能系統(tǒng)之間的對話。”展望未來雖然她的工作橫跨哲學與計算機科學,但喬克勒堅持認為,她骨子里是一個務實的人。她說:“我對那些我們可以構建、可以驗證、可以證明的東西感興趣。”她的團隊的下一個重要目標是將他們的技術應用于大型語言模型,如ChatGPT。對于像ChatGPT這樣的語言模型,存在著圖像分類器所不具備的挑戰(zhàn):語言在很大程度上依賴于上下文。在一張貓的圖片中,你可以遮住背景,但圖片仍然是一只貓,這樣你就可以從圖片中找到小的子集來代表整個圖片。然而,在一個句子或一個段落中,遮住一個 "不 "字可能會完全顛倒整個文本的意思。正因為如此,最小因果解釋的概念很難直接套用。喬克勒說:“我們還沒有做到這一點,但我們這個團隊已經有了很多人,我們對接下來的工作感到非常興奮。”

作者:Justin Chen

翻譯:小聰

審校:7號機

fu

li

shi

jian

今天我們將送出由電子工業(yè)出版社提供的《AI for Science:人工智能驅動科學創(chuàng)新。

為了獲諾獎,AI不僅要懂物理學,還要懂哲學?

人工智能驅動科學創(chuàng)新(AI for Science)帶來的產業(yè)變革與每個人息息相關。本書聚焦于人工智能與材料科學、生命科學、電子科學、能源科學、環(huán)境科學五大領域的交叉融合,通過深入淺出的語言,對基本概念、技術原理和應用場景進行了全面的介紹,讓讀者可以快速掌握AI for Science的基礎知識。此外,對于每個交叉領域,本書通過案例進行了詳盡的介紹,梳理了產業(yè)地圖,并給出了相關政策啟示。

《AI for Science:人工智能驅動科學創(chuàng)新》適合所有關注人工智能技術和產業(yè)發(fā)展的讀者閱讀,特別適合材料科學、生命科學、電子科學、能源科學、環(huán)境科學等領域的政府工作人員、科研人員、創(chuàng)業(yè)者、投資者等參考。

互動問題:你還知道人工智能與哪些學科有交叉?有什么應用或研究進展呢?

請大家嚴格按照互動:問題答案的格式在評論區(qū)留言參與互動,格式不符合要求者無效。

截止到本周五中午12:00,參與互動的留言中點贊數排名第二、三、五的朋友將獲得我們送出的圖書一套(點贊數相同的留言記為并列,下一名次序加一,如并列第二之后的讀者記為第三名,以此類推)。

為了保證更多的朋友能夠參與獲獎,過往四期內獲過獎的朋友不能再獲得獎品,名次會依次順延

*本活動僅限于微信平臺

編輯:7號機

翻譯內容僅代表作者觀點

不代表中科院物理所立場


贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港