展會信息港展會大全

萬字長文:怎樣彌合人工智能和人腦智能的差距?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-02 07:50:43   瀏覽:0次  

導讀:文 |追問nextquestion01 人工智能 vs 人腦智能1. 早期人工智能模型是如何從對大腦的理解中獲得靈感的?人工智能的早期發(fā)展得益于對人類大腦的理解。在20世紀中葉,隨著神經(jīng)科學的進展和對人腦功能的初步認識,科學家們開始嘗試將這些生物學概念應用于機器智能的開發(fā)中。1943年,神經(jīng)生理學家Warren McCulloch和數(shù)學家Walter Pitts提出的“McCulloch-Pitts神經(jīng)元模型”是最早的 ......

文 |追問nextquestion

01 人工智能 vs 人腦智能

1. 早期人工智能模型是如何從對大腦的理解中獲得靈感的?

人工智能的早期發(fā)展得益于對人類大腦的理解。在20世紀中葉,隨著神經(jīng)科學的進展和對人腦功能的初步認識,科學家們開始嘗試將這些生物學概念應用于機器智能的開發(fā)中。

1943年,神經(jīng)生理學家Warren McCulloch和數(shù)學家Walter Pitts提出的“McCulloch-Pitts神經(jīng)元模型”是最早的嘗試之一。這一模型采用數(shù)學邏輯描述神經(jīng)元的活動,雖然簡單,但為后來的人工神經(jīng)網(wǎng)絡奠定了基礎。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖1:神經(jīng)元結(jié)構(gòu)與McCulloch-Pitts神經(jīng)元模型

這一時期,對大腦的研究主要聚焦在神經(jīng)元如何處理信息,以及它們?nèi)绾瓮ㄟ^電信號在復雜網(wǎng)絡中相互作用。這些研究啟發(fā)了早期人工智能研究者設計出早期的人工神經(jīng)網(wǎng)絡。

1950年代,F(xiàn)rank Rosenblatt發(fā)明的感知機(Perceptron),是一種受到生物視覺系統(tǒng)的啟發(fā)而設計的算法,它模擬視網(wǎng)膜接收光線的方式處理信息,雖然原始,但標志著機器學習領域向前邁出了重要的一步。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖2:左邊為Rosenblatt的物理感知機,右邊為感知器系統(tǒng)結(jié)構(gòu)

除了神經(jīng)科學的影響,早期的認知心理學研究也對AI的發(fā)展有所貢獻。認知心理學家試圖理解人類如何感知、記憶、思考和解決問題,這些研究為人工智能模擬人類智能行為提供了方法論基礎。例如,Allen Newell和Herbert A. Simon開發(fā)的邏輯理論機[1-3],能夠?qū)?shù)學定理進行證明,這一程序不僅模擬了人類的解決問題的過程,也在某種程度上模仿了人類思維的邏輯推理過程。

這些早期的模型雖然簡單,但它們的開發(fā)過程和設計理念深受(當時人們)對人腦的理解方式的影響,為后續(xù)更復雜系統(tǒng)的開發(fā)奠定了理論和實踐基礎。通過這樣的探索,科學家們逐漸構(gòu)建出能在特定任務上模仿或超越人類表現(xiàn)的智能系統(tǒng),推動了人工智能技術的演進和革新。

2. 人工智能的發(fā)展

自那以后,人工智能領域經(jīng)歷了一輪又一輪“寒冬”和“復蘇”。20世紀七八十年代,算力的提高和算法的創(chuàng)新,如反向傳播算法(back propagation)的引入,使得訓練更深層次的神經(jīng)網(wǎng)絡成為可能。這一時期,人工智能雖然在某些領域如專家系統(tǒng)(expert system)中獲得了商業(yè)成功,但由于技術的局限性和過高的期望值,最終導致了第一次AI寒冬的到來。

進入21世紀,特別是自2010年以后,人工智能領域再次得到了前所未有的發(fā)展。數(shù)據(jù)量的指數(shù)級增長,高性能計算資源(如GPU)的普及和算法的進一步優(yōu)化,使得深度學習技術迅速成為推動人工智能發(fā)展的主要動力。

深度學習的核心仍舊是模擬人腦神經(jīng)元的信息處理方式,但其應用已經(jīng)遠遠超越了最初的設想,涵蓋了圖像識別、自然語言處理、自動駕駛車輛、醫(yī)療診斷等眾多領域。這些突破性的進展,不僅推動了技術的進步,也促進了新的商業(yè)模式的出現(xiàn)和產(chǎn)業(yè)的快速發(fā)展。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

Giordano Poloni

3. 目前人工智能和人腦智能的差別

3.1 功能表現(xiàn)方面的差別

盡管人工智能在特定領域(如棋類游戲、特定圖像和語音識別任務)已能超越人類,但它通常缺乏跨領域的適應能力。

雖然某些AI系統(tǒng)(如深度學習模型)在大數(shù)據(jù)環(huán)境中表現(xiàn)出色,但它們通常需要大量的標記數(shù)據(jù)與模型訓練,并且當任務或環(huán)境發(fā)生變化時,AI的遷移學習能力也較為有限,通常需要為之設計特定的算法。而人腦則具有強大的學習和適應能力,能夠在少量數(shù)據(jù)和多種環(huán)境條件下學習新任務,還能夠進行遷移學習,即可以將在一個領域中學到的知識應用到另一個看似無關的領域。

處理復雜問題的靈活性方面,AI在處理定義清晰、結(jié)構(gòu)化良好的問題時,如棋類游戲、語言翻譯等,效果最佳;但在處理模糊不清、非結(jié)構(gòu)化的問題時,效率較低,易受到干擾。人腦在處理含糊不清、復雜的環(huán)境信息時,顯示出極高的靈活性和效率。例如,人腦能夠在嘈雜的環(huán)境中識別聲音、在缺乏完整信息的情況下做出決策等。

意識和認知方面,當前的AI系統(tǒng)缺乏真正的意識和情感,它們的“決策”僅僅是基于算法和數(shù)據(jù)的輸出,沒有主觀體驗或情感的涉及。人類不僅可以處理信息,還擁有意識、情感和主觀體驗,這些都是人腦智能的重要組成部分。

在多任務處理方面,雖然某些AI系統(tǒng)能夠同時處理多種任務,但這通常需要復雜的針對性設計。大多數(shù)AI系統(tǒng)針對單一任務設計誕生,其進行多任務處理時的效率和效果通常不如人腦。人腦在同時處理多重任務時具有極大的靈活性,能夠在不同任務之間迅速切換并保持高效。

能耗和效率方,高級AI系統(tǒng),尤其是大型機器學習模型,常常需要大量的計算資源和能源,能耗遠超人腦。人腦僅需約20瓦特即可運行,具有極高的信息處理效率。

總體來說,盡管人工智能在特定領域已展示出卓越的性能,但它仍然無法全面模擬人腦,特別是在靈活性、學習效率和多任務處理等方面。未來的AI研究可能會不斷縮小這些差異,但人腦的復雜性和高效性仍是其難以超越的標桿。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

Spooky Pooka ltd

3.2 底層機制方面的差別

在基礎結(jié)構(gòu)方面,現(xiàn)代AI系統(tǒng),特別是神經(jīng)網(wǎng)絡,雖然受到生物神經(jīng)網(wǎng)絡的啟發(fā),但“神經(jīng)元”(通常是計算單元)及其相互連接均依靠數(shù)值模擬。這些人工神經(jīng)網(wǎng)絡的連接和處理通常都是預設的、靜態(tài)的,缺乏生物神經(jīng)網(wǎng)絡的動態(tài)可塑性。人腦由大約860億個神經(jīng)元組成,每個神經(jīng)元通過數(shù)千到數(shù)萬個突觸連接與其他神經(jīng)元相連[6-8],這種結(jié)構(gòu)支持復雜的并行處理和高度動態(tài)的信息交換。

在信號傳遞方面,AI系統(tǒng)中的信號傳遞通常是通過數(shù)值計算實現(xiàn)的,例如在神經(jīng)網(wǎng)絡中,神經(jīng)元的輸出是輸入加權(quán)和的函數(shù),這些加權(quán)和通常通過簡單的數(shù)學函數(shù)(如Sigmoid或ReLU)處理。神經(jīng)信號傳導依賴于電化學過程,神經(jīng)元之間的信息交流通過突觸釋放神經(jīng)遞質(zhì)進行,并受到多種生物化學過程的調(diào)控。

在學習機制方面,AI的學習通常通過算法調(diào)整參數(shù)(如權(quán)重)來實現(xiàn),例如通過反向傳播算法。雖然這種方法在技術上有效,但它需要大量的數(shù)據(jù),針對新的數(shù)據(jù)集需要重新訓練或顯著調(diào)整模型參數(shù),與人腦的持續(xù)和無監(jiān)督學習方式相比存在差距。人腦的學習依賴于突觸可塑性,即神經(jīng)連接的強度根據(jù)經(jīng)驗和活動而改變,這種可塑性支持持續(xù)的學習和記憶形成。

4. 模擬人類智能的長期目標通用人工智能的背景和定義

通用人工智能(AGI)的概念提出,源于對狹義人工智能(AI)的局限性的認識。狹義AI通常專注于解決特定的、限定范圍的問題,例如棋類游戲或語言翻譯,但缺乏跨任務和領域的靈活性。隨著科技的進步和對人類智能更深入的理解,科學家們開始設想一種類似人類的具備多領域認知能力、自主意識、創(chuàng)造力和邏輯推理能力的智能系統(tǒng)。

AGI旨在創(chuàng)建一種智能系統(tǒng),能夠像人類一樣理解和解決多領域問題,并且能夠進行自我學習和適應。這種系統(tǒng)將不僅僅是工具,更是作為智能實體參與到人類的社會經(jīng)濟、文化活動中。AGI的提出,代表了人工智能發(fā)展的理想狀態(tài),期望最終能夠在全面性和靈活性方面達到并超越人類智能。

02 實現(xiàn)通用人工智能的路徑

多樣化的神經(jīng)元模擬和網(wǎng)絡結(jié)構(gòu)顯示出不同級別的復雜性。具有更豐富動態(tài)描述的神經(jīng)元的內(nèi)部復雜性較高,而具有更寬和更深連接的網(wǎng)絡的外部復雜性較高。從復雜性的角度來看,目前通常認為,有望實現(xiàn)通用人工智能的路徑有兩條,一種是外部復雜性大模型方法,例如通過增加模型的寬度和深度;另一種是內(nèi)部復雜性小模型方法,例如通過向模型添加離子通道或?qū)⑵滢D(zhuǎn)換為多區(qū)室模型。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖3:神經(jīng)元和網(wǎng)絡的內(nèi)部復雜性和外部復雜性

1. 外部復雜性大模型方法

在人工智能(AI)領域,為了解決更廣泛和更復雜的問題,研究者們越來越依賴于大型AI模型的開發(fā)。這些模型通常具有更深、更大、更寬的網(wǎng)絡結(jié)構(gòu),可稱之為“外部復雜性大模型方法”。這種方法的核心,在于過擴展模型的規(guī)模,來增強其處理信息(尤其是在處理大量數(shù)據(jù))和學習的能力。

1.1. 大型語言模型的應用

大型語言模型,如GPT(Generative Pre-trained Transformer)和BERT(Bidirectional Encoder Representations from Transformers)等,是當前AI研究中的熱點。這些模型通過深層神經(jīng)網(wǎng)絡學習大規(guī)模文本數(shù)據(jù),掌握語言的深層語義和結(jié)構(gòu),能夠在多種語言處理任務中展示出色的性能。例如,GPT-3通過訓練大規(guī)模的文本數(shù)據(jù)集,不僅能夠生成高質(zhì)量的文本,還能進行問答、摘要、翻譯等任務。

這些大型語言模型的主要應用,包括自然語言理解、文本生成、情感分析等,因而可廣泛應用于搜索引擎、社交媒體分析、客戶服務自動化等領域。

1.2. 為什么要擴展模型的規(guī)模?

根據(jù)Jason Wei、Yi Tay、William Fedus等人在Emergent Abilities of Large Language Models中的研究,隨著模型規(guī)模的增大,模型的能力會出現(xiàn)“涌現(xiàn)”現(xiàn)象,即某些先前未明顯的能力會突然顯現(xiàn)。這是因為模型在處理更復雜、更多樣化的信息時,能夠?qū)W習到更深層次的模式和關聯(lián)。

例如,超大規(guī)模的語言模型能在未經(jīng)特定針對性訓練的情況下,出現(xiàn)解決復雜的推理問題和創(chuàng)造性寫作的能力。這種“智能的涌現(xiàn)”現(xiàn)象表明,通過增加模型的規(guī)模,可以實現(xiàn)更接近人類智能的廣泛認知和處理能力

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖4:大語言模型的涌現(xiàn)現(xiàn)象

1.3. 挑戰(zhàn)

盡管大型模型帶來了前所未有的能力,但它們也面臨著重大挑戰(zhàn),尤其是在效率和成本方面。

首先,這類模型需要巨大的計算資源,包括高性能的GPU和大量的存儲空間,這直接增加了研究和部署的成本。其次,大模型的能耗問題也日益突出,這不僅影響模型的可持續(xù)發(fā)展,也引發(fā)了環(huán)保關注。此外,訓練這些模型需要大量的數(shù)據(jù)輸入,這可能引發(fā)數(shù)據(jù)隱私和安全性問題,尤其是當涉及到敏感或個人信息時。最后,大型模型的復雜性和不透明性可能導致模型決策過程難以解釋,這在應用于醫(yī)療、法律等需求高度透明和可解釋性的領域時,可能成為一個嚴重問題。

2. 內(nèi)部復雜性小模型方法

提到大語言模型,人們最直觀的感受便是其高度“類人”的輸出能力。Webb等人考察了ChatGPT的類比推理能力[3],發(fā)現(xiàn)它已涌現(xiàn)出了零樣本推理能力,能夠在沒有明確訓練的情況下解決廣泛的類比推理問題。一些人認為,如果像ChatGPT這樣的LLM確實能夠?qū)π睦韺W中的常見測量產(chǎn)生類似人類的響應(例如對行動的判斷、對價值的認可、對社會問題的看法),那么它們在未來可能會取代人類受試者群體。

2.1. 理論基礎

神經(jīng)元是神經(jīng)系統(tǒng)的基本結(jié)構(gòu)和功能單位,其主要組成部分包括細胞體、軸突、樹突和突觸。這些部分共同協(xié)作,完成信息的接收、整合和傳遞。以下將從神經(jīng)元模型、電信號在神經(jīng)元突起(樹突和軸突)中的傳導、突觸及突觸可塑性模型、帶有復雜樹突和離子通道的模型等方面講起,介紹神經(jīng)元模擬的理論基礎。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖5:神經(jīng)元的結(jié)構(gòu)

2.1.1. 神經(jīng)元模型

離子通道

神經(jīng)元的離子通道和離子泵是調(diào)控神經(jīng)電信號傳遞的關鍵膜蛋白,它們控制著離子跨細胞膜的運動,從而影響神經(jīng)元的電活動和信號傳遞。這些結(jié)構(gòu)確保了神經(jīng)元能夠維持或調(diào)節(jié)靜息電位、生成和傳遞動作電位,是神經(jīng)系統(tǒng)功能的基礎。

離子通道是嵌在細胞膜中的蛋白質(zhì)通道,它們可以調(diào)控特定離子(如鈉、鉀、鈣和氯)的通過。電壓變化、化學信號或機械應力等多種因素,控制這些離子通道的開閉狀態(tài),從而對神經(jīng)元的電活動產(chǎn)生影響。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖6:神經(jīng)元的離子通道和離子泵

等效電路

等效電路模型通過使用電路元件來模擬神經(jīng)細胞膜的電生理性質(zhì),使得復雜的生物電現(xiàn)象可以在物理和工程的框架內(nèi)得到解釋和分析。等效電路模型,通常包括膜電容、膜電阻、電源這3個基本元件。

神經(jīng)元的細胞膜表現(xiàn)出電容性質(zhì),這與細胞膜的磷脂雙分子層結(jié)構(gòu)有關。磷脂雙層的疏水核阻止離子自由通過,使得細胞膜具有很高的電絕緣性。當細胞膜兩側(cè)的離子濃度不同,特別是在在離子泵的調(diào)節(jié)下,細胞膜兩側(cè)會形成電荷分離。由于細胞膜的絕緣性,這種電荷分離在細胞膜上形成了一個靜電場,使得細胞膜能儲存電荷。

電容元件被用來模擬這種儲存電荷的能力,其電容值取決于膜的面積和厚度。膜電阻主要通過離子通道的開閉來調(diào)控,它直接影響膜電位的變化速度和細胞對電流輸入的響應。電源代表由離子泵產(chǎn)生的離子跨膜濃度差引起的電化學勢差,這是維持靜息電位和驅(qū)動動作電位變化的驅(qū)動力。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖7:等效電路示意圖

HH模型

基于等效電路的思想,Alan Hodgkin和Andrew Huxley在20世紀50年代基于他們對烏賊巨神經(jīng)元的實驗研究提出了HH(Hodgkin-Huxley)模型,模型中包括鈉(Na)、鉀(K)和漏電流(Leak Current)的電導,可以表示每種離子通道的開啟程度,在模型中離子通道的開閉進一步通過門控變量描述,這些變量(m、h、n)具有電壓依賴性和時間依賴性。HH模型的方程為:

萬字長文:怎樣彌合人工智能和人腦智能的差距?

萬字長文:怎樣彌合人工智能和人腦智能的差距?

LIF模型

LIF模型,即泄漏整合發(fā)放模型(Leaky Integrate-and-Fire model),是神經(jīng)科學中一個常用的簡化神經(jīng)元動作電位的數(shù)學模型。該模型側(cè)重于描述膜電位[4-5]隨時間的變化情況,而忽略生物神經(jīng)元內(nèi)部的復雜離子動態(tài)。

科學家們發(fā)現(xiàn),當給神經(jīng)元施加持續(xù)的電流輸入[6-7]時,神經(jīng)元的膜電位會隨之上升,直到達到某個閾值致使動作電位發(fā)放,之后膜電位迅速復位,并重復這一過程。LIF模型雖然沒有描述具體的離子通道動態(tài),但由于其計算效率高,廣泛應用于神經(jīng)網(wǎng)絡建模和理論神經(jīng)科學研究。其基本方程如下:

萬字長文:怎樣彌合人工智能和人腦智能的差距?

2.1.2. 電信號在神經(jīng)元突起(樹突和軸突)中的傳導:電纜理論

19世紀末至20世紀初,科學家們開始認識到,神經(jīng)元中的電信號可以通過軸突、樹突等細長的神經(jīng)纖維進行傳播。然而,隨著距離的增加,信號會發(fā)生衰減。科學家們需要一種理論工具來解釋電信號在神經(jīng)纖維中的傳播過程,特別是在長距離上傳播時的電位變化規(guī)律。

1907年,物理學家赫爾曼(Wilhelm Hermann)提出了一個簡單的理論框架,將神經(jīng)纖維比作電纜,以此描述電信號的擴散過程。這一理論后來在20世紀中葉由霍奇金和赫胥黎等人進一步發(fā)展,他們通過對神經(jīng)元的實驗測量,確認了離子流在信號傳播中的關鍵作用,并建立了與電纜理論相關的數(shù)學模型。

電纜理論的核心思想是將神經(jīng)纖維視為一段電纜,通過引入電阻、容等電學參數(shù),模擬電信號(通常是動作電位)在神經(jīng)纖維中的傳播過程。神經(jīng)纖維,如軸突和樹突,被視為一維的電纜,電信號沿著纖維長度傳播;膜電活動通過電阻和電容來描述,電流的傳導則受到纖維內(nèi)部電阻和膜漏電電阻的影響;信號在纖維中的傳播,隨著距離增加,逐漸衰減。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖8.電纜理論示意圖

萬字長文:怎樣彌合人工智能和人腦智能的差距?

2.1.3. 多區(qū)室模型

在早期的神經(jīng)元建模中,如HH模型和電纜理論模型,神經(jīng)元被簡化為一個點狀的“單一區(qū)室”,即只考慮膜電位在時間上的變化,而忽略了神經(jīng)元各個部分的空間分布。這些模型適合描述動作電位的產(chǎn)生機制,但無法充分解釋信號在神經(jīng)元復雜的形態(tài)結(jié)構(gòu)(如樹突、軸突等)中的傳播特性。

隨著神經(jīng)科學對神經(jīng)元結(jié)構(gòu)復雜性的認識不斷加深,科學家們意識到:不同部分的電位變化會有顯著差異,尤其是在具有長樹突的神經(jīng)元中。樹突和軸突中的信號傳播不僅受到電信號的空間擴散影響,還會因為結(jié)構(gòu)復雜性而出現(xiàn)不同的響應。因此,需要一種更精細的模型來描述神經(jīng)元中電信號的空間傳播,這就促使了多區(qū)室模型(Multi-compartmental model)的提出。

多區(qū)室模型的核心思想是將神經(jīng)元的樹突、軸突和細胞體分成多個相互連接的區(qū)室(compartments),每個區(qū)室使用類似于電纜理論的方程來描述跨膜電位隨時間和空間的變化,通過多個區(qū)室的相互連接,模擬電信號在神經(jīng)元內(nèi)部的復雜傳播路徑,并反映不同區(qū)室之間的電位差異。這種處理方式可以精確描述電信號在神經(jīng)元復雜形態(tài)中的傳播,特別是樹突上的電信號衰減和放大現(xiàn)象。

具體來說,神經(jīng)元被分成多個小區(qū)室,每個區(qū)室代表神經(jīng)元的一部分(如樹突、軸突或細胞體的一段)。每個區(qū)室用電路模型表示,電阻和電容用以描述膜的電學特性,跨膜電位由電流注入、擴散和漏電等因素決定。鄰近區(qū)室通過電阻連接,電信號通過這些連接在區(qū)室間傳播。跨膜電位Vi在第i個區(qū)室中遵循類似于電纜理論的微分方程:

萬字長文:怎樣彌合人工智能和人腦智能的差距?

在多區(qū)室模型中,某些區(qū)室(如細胞體或起始區(qū))可產(chǎn)生動作電位,而其他區(qū)室(如樹突或軸突)則主要負責電信號的傳播和衰減。信號通過不同區(qū)室之間的連接傳遞,樹突區(qū)的輸入信號最終可以整合到細胞體并引發(fā)動作電位,動作電位再沿著軸突傳播。

與單一區(qū)室模型相比,多區(qū)室模型能夠反映神經(jīng)元形態(tài)結(jié)構(gòu)的復雜性,尤其是在樹突和軸突等結(jié)構(gòu)中的電信號傳播過程。由于涉及多個區(qū)室之間的耦合微分方程,多區(qū)室模型常需通過數(shù)值方法(如歐拉法或Runge-Kutta方法)進行求解。

2.2. 為什么要進行生物神經(jīng)元的復雜動態(tài)模擬?

Beniaguev等人的實驗研究表明,由于大腦不同類型神經(jīng)元的復雜樹突結(jié)構(gòu)和離子通道,單個神經(jīng)元具有與5-8層深度學習網(wǎng)絡相媲美的非凡計算能力[8]。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖9:包含AMPA和NMDA突觸的L5皮層錐體神經(jīng)元模型,可以通過包含七個隱藏層的TCN(時間卷積網(wǎng)絡)來精確模擬,每個隱藏層有128個特征圖,歷史時長為153毫秒。

He等人的工作關注不同內(nèi)部動態(tài)和內(nèi)部復雜性的神經(jīng)元模型之間的聯(lián)系[9]。他們提出了一種將外部復雜性轉(zhuǎn)換為內(nèi)部復雜性的方法,這種內(nèi)部動態(tài)更為豐富的模型具有一定的計算優(yōu)勢。具體來說,他們在理論上證明了LIF模型和 HH模型存在動力學特性上的等效性,HH神經(jīng)元可以與四個具有特定連接結(jié)構(gòu)的時變參數(shù) LIF神經(jīng)元(tv-LIF)動力學特性等效。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖10:一種從tv-LIF模型轉(zhuǎn)換到HH模型的方法

在此基礎上,他們通過實驗驗證了HH網(wǎng)絡在處理復雜任務時的有效性和可靠性,并發(fā)現(xiàn)與簡化的tv-LIF網(wǎng)絡(s-LIF2HH網(wǎng)絡)相比,HH網(wǎng)絡的計算效率顯著更高。這證明了將外部復雜性轉(zhuǎn)化為內(nèi)部復雜性,可以提高深度學習模型的計算效率;也提示,受生物神經(jīng)元復雜動態(tài)啟發(fā)的內(nèi)部復雜性小模型方法,有希望實現(xiàn)更強大和更高效的AI系統(tǒng)。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

圖11:LIF模型、HH模型、s-LIF2HH的計算資源分析

此外,由于結(jié)構(gòu)和計算機制的限制,現(xiàn)有人工神經(jīng)網(wǎng)絡與真實大腦差距較大,無法直接用于理解真實大腦學習以及處理感知任務的機理。相比人工神經(jīng)網(wǎng)絡,具有豐富內(nèi)部動態(tài)的神經(jīng)元模型,更接近真實的生物,對理解真實大腦的學習過程和人類智能的機制有重要作用。

3. 挑戰(zhàn)性

盡管內(nèi)部復雜性小模型方法在多個方面表現(xiàn)出色,但它也面臨著一系列挑戰(zhàn)。神經(jīng)元的電生理活動通常通過復雜的非線性微分方程來描述,這使得模型的求解分析極具挑戰(zhàn)。由于神經(jīng)元模型的非線性和不連續(xù)特性,使用傳統(tǒng)的梯度下降方法進行學習變得復雜和低效。此外,如HH模型等內(nèi)部復雜性的增加,減少了硬件并行性,減慢了信息處理速度,因此需要硬件方面相應的創(chuàng)新和改進。

為了應對這些挑戰(zhàn),研究者們開發(fā)了多種改進的學習算法。例如,使用近似梯度,解決不連續(xù)特性的問題;使用二階優(yōu)化算法,更加精確地捕捉損失函數(shù)的曲率信息加速收斂。分布式學習和并行計算的引入,使得復雜神經(jīng)元網(wǎng)絡的訓練過程可以在大規(guī)模計算資源下更高效地進行。

此外,生物啟發(fā)式學習機制受到一些學者的關注。生物神經(jīng)元的學習過程與目前的深度學習方法有很大不同。例如,生物神經(jīng)元依賴于突觸的可塑性來實現(xiàn)學習,這種機制包括了突觸強度的增強和減弱,稱為長時程增強(LTP)和長時程抑制(LTD)。這種機制不僅更加高效,還能夠減少模型對連續(xù)信號處理的依賴,從而降低計算負擔。

萬字長文:怎樣彌合人工智能和人腦智能的差距?

MJ

03 彌合人工智能和人腦智能的差距

He等人通過理論驗證和模擬證明了更小、內(nèi)部復雜的網(wǎng)絡可以復制更大、更簡單的網(wǎng)絡的功能。這種方法不僅可以保持性能,還可以提高計算效率,將內(nèi)存使用量減少四倍,并將處理速度提高一倍,這也表明提高內(nèi)部復雜性可能是提高 AI 性能和效率的有效途徑。

Zhu和Eshraghian對He等人的文章Network model with internal complexity bridges artificial intelligence and neuroscience做出了評論[5]。他們認為,“AI 中內(nèi)部復雜性和外部復雜性之間的爭論仍然懸而未決,這兩種方法都可能在未來的進步中發(fā)揮作用。通過重新審視和加深神經(jīng)科學和 AI 之間的聯(lián)系,我們可能會發(fā)現(xiàn)構(gòu)建更高效、更強大、甚至更類似大腦的人工智能系統(tǒng)的新方法。”

當我們站在 AI 發(fā)展的十字路口時,該領域面臨著一個關鍵問題:我們能否通過更精準地模擬生物神經(jīng)元的動力學來實現(xiàn) AI 能力的下一次飛躍,還是會繼續(xù)用更大的模型和更強大的硬件鋪平前進的道路?Zhu和Eshraghian認為,答案可能在于兩種方法的綜合,這也將隨著我們對神經(jīng)科學理解的加深而不斷優(yōu)化改進。

盡管生物神經(jīng)元動態(tài)的引入在一定程度上增強了AI的功能,但目前仍遠未達到對人類意識的模擬的技術水平。首先,理論的完備性依然不足。我們對意識的本質(zhì)缺乏足夠的理解,尚未形成一個能夠解釋和預測意識現(xiàn)象的完整理論。其次,意識的模擬可能需要高性能的計算模擬框架,目前的硬件和算法效率仍無法支持如此復雜的模擬。此外,大腦模型的高效訓練算法依舊是一個難題。復雜神經(jīng)元的非線性行為增加了模型訓練的難度,這需要新的優(yōu)化方法來處理。大腦的許多復雜功能,例如長時間的記憶保持、情感處理和創(chuàng)造力,其具體神經(jīng)機制和底層分子機制仍有待深入探索。如何在人工神經(jīng)網(wǎng)絡中進一步模擬這些行為及其分子機制,依然是開放的問題。未來的研究需要在這些問題上取得突破,才能真正走向?qū)θ祟愐庾R和智能的模擬。

跨學科合作,對于人類意識和智能的模擬至關重要。數(shù)學、神經(jīng)科學、認知科學、哲學、計算機科學等領域的協(xié)同研究,將有助于更深入地理解和模擬人類意識和人類智能。只有通過不同學科的合作,才能形成更加全面的理論框架,推動這項極具挑戰(zhàn)的任務向前發(fā)展。

參考文獻

[1] David Beniaguev, Idan Segev and Michael London. "Single cortical neurons as deep artificial neural networks." Neuron. 2021; 109: 2727-2739.e3 doi: https://doi.org/10.1016/j.neuron.2021.07.002

[2] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E.H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.

[3] 王超名, 陳嘯寧, 張秋, 吳思 (2023). 神經(jīng)計算建模實戰(zhàn):基于BrainPy. 電子工業(yè)出版社.

[4] He, L., Xu, Y., He, W., Lin, Y., Tian, Y., Wu, Y., Wang, W., Zhang, Z., Han, J., Tian, Y., Xu, B., & Li, G. (2024). Network model with internal complexity bridges artificial intelligence and neuroscience. Nature computational science, 4(8), 584599. https://doi.org/10.1038/s43588-024-00674-9

[5] Zhu, R. J., Gunasekaran, S., & Eshraghian, J. (2024). Bridging the gap between artificial intelligence and natural intelligence. Nature computational science, 4(8), 559560. https://doi.org/10.1038/s43588-024-00677-6

[6] Hindley, N., Sanchez Avila, A., & Henstridge, C.M. (2023). Bringing synapses into focus: Recent advances in synaptic imaging and mass-spectrometry for studying synaptopathy. Frontiers in Synaptic Neuroscience, 15.

[7] Azevedo, F., Carvalho, L., Grinberg, L., Farfel, J., Ferretti, R., Leite, R., et al. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. J. Comp. Neurol. 513, 532541. doi: 10.1002/cne.21974

[8] Obi-Nagata, K., Temma, Y., and Hayashi-Takagi, A. (2019). Synaptic functions and their disruption in schizophrenia: From clinical evidence to synaptic optogenetics in an animal model. Proc. Jpn. Acad. Ser. B Phys. Biol. Sci. 95, 179197. doi: 10.2183/pjab.95.014

更多精彩內(nèi)容,關注鈦媒體微信號(ID:taimeiti),或者下載鈦媒體App

贊助本站

相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港