展會信息港展會大全

節(jié)能1000倍!仿人腦神經芯片跑AI模型竟然這么省電
來源:互聯網   發(fā)布日期:2022-02-25 14:51:09   瀏覽:18472次  

導讀:新智元報道 編輯:袁榭 好困 【新智元導讀 】為了克服現下大型神經網絡模型一跑就要大量耗電的弊端,德國與瑞士研究者在仿照人腦架構的神經擬態(tài)芯片上獲得突破,有望以此芯片用當下千分之一的能耗運行未來大型AI。 作為如今最成功的人工智能算法,人工神經網...

新智元報道

編輯:袁榭 好困

【新智元導讀】為了克服現下大型神經網絡模型一跑就要大量耗電的弊端,德國與瑞士研究者在仿照人腦架構的神經擬態(tài)芯片上獲得突破,有望以此芯片用當下千分之一的能耗運行未來大型AI。

作為如今最成功的人工智能算法,人工神經網絡,可以松散地模擬了人腦中真實神經網絡的復雜鏈接。

不過與人腦的高能效相比,實在是太費電了。

于是,神經擬態(tài)計算應運而生,這種技術更貼近模仿了人腦的運作機理與物理定律。

然而,由于器件失配難題,模擬神經元的質性會與設計略有不同,且電壓和電流水平在不同的神經元之間也有差異。

相比之下,AI算法的訓練則是在具有完全一致的數字神經元的計算機上完成的。

因此,實際在神經擬態(tài)芯片上運行時,經常會出現「水土不服」的問題。

2022年1月在美國國家科學院院刊上發(fā)布的一篇論文,揭示了繞過此難題的一種途徑。

由瑞士弗雷德里希米歇爾生物醫(yī)療研究所的研究者弗里德曼曾克,與德國海德堡大學的研究者約翰內斯希密爾聯合組成的團隊,在脈沖神經網絡這一類型的AI算法上獲得新進展。

脈沖神經網絡使用模仿人腦中的特色脈沖交流訊號,可以在神經擬態(tài)芯片上運行,學會如何代償芯片中的器件失配。

此論文是AI邁向神經擬態(tài)運算的顯著一步。

模擬神經網絡

與現有AI運行設備不同,神經擬態(tài)計算并不將數據在長間隔距離的CPU與存儲卡之間搬運。

神經擬態(tài)芯片設計模仿果凍般人腦的基礎架構,將計算單元(神經元)置于存儲單元(連接神經元的突觸)旁邊。

為了讓設計更像人腦,研究者將神經擬態(tài)芯片結合模擬計算,如此能像真實神經元一樣處理持續(xù)不斷的信號。

這樣產出的芯片,與現下依賴處理0與1的二元基礎信號的數碼計算模式和架構,有顯著不同。

以人腦作為設計指南,神經擬態(tài)芯片承諾有朝一日終結AI等大數據量運算工作的高耗能。不幸的是,AI算法在神經擬態(tài)芯片的模擬版本上運行效果不佳。

這是因為器件失配的缺陷:在生產過程中,芯片里模擬神經元的微型組件大小出現不匹配。

由于單個芯片不足以運行最新的AI訓練過程,算法必須在傳統計算機上進行預訓練。

但之后將算法轉輸到芯片上時,一旦遇上模擬硬件不匹配的問題,算法就兩眼一抹黑了。

基于人腦設計的計算模式是模擬計算而非數碼計算,這點差別微妙而關鍵。

數碼計算只能有效呈現人腦脈沖信號的二元性方面:脈沖信號作為一道沖過神經元的電信號,狀態(tài)具有二元性,要么輸出了,要么沒輸出,這就是0與1的區(qū)別。

不過事實上因為人腦細胞中有電壓變化,當細胞內電壓超過比細胞外電壓高到一定程度的特定閾值,就會輸出脈沖。

如此一來,脈沖是在一定時段內持續(xù)不絕地輸出的,而且神經元決定輸出脈沖的狀態(tài)也是持續(xù)不絕的,這其實是一種模擬信號的狀態(tài)。

瑞士蘇黎世聯邦理工學院的神經擬態(tài)工程研究者夏洛特弗倫克爾說:「模擬態(tài)體現了人腦運算模式的核心之美。成功效仿人腦的這一關鍵方面,將是神經擬態(tài)運算的主驅動因素之一。」

2011年,海德堡大學的一組研究人員開始開發(fā)一種既有模擬態(tài)又有數碼態(tài)的神經擬態(tài)芯片,為神經科學實驗模擬大腦。

此后,團隊又發(fā)布了新一版的芯片「BrainScaleS-2」,其中每個模擬神經元都模擬了腦細胞的輸入-輸出電流和電壓變化。

不過,由于材質的導電質性不同于真人腦,芯片在速度上要比人腦快1000倍。

在這項新的工作中,通過將芯片納入算法的訓練過程,脈沖神經網絡可以學習如何糾正BrainScaleS-2芯片上的電壓差別。

為了處理器件失配的問題,團隊還專門為脈沖神經網絡開發(fā)了全新的方法,將芯片用梯度替代法這種學習方法與計算機交互。

梯度替代法通過持續(xù)改變神經元之間的連接,來盡量減少神經網絡在執(zhí)行任務中的錯誤數量(類似于非脈沖神經網絡使用的反向傳播)。

梯度替代法能夠在計算機上的訓練過程中糾正芯片的不完善之處。

首先,讓脈沖神經網絡利用芯片上模擬神經元的不同電壓執(zhí)行一項簡單的任務,并將電壓的記錄發(fā)回計算機。

然后,讓算法自動學習如何最好地改變其神經元之間的連接,以便仍能與模擬神經元很好地配合,在學習的同時持續(xù)更新芯片上的神經元。

最終,當訓練完成后,脈沖神經網絡就能在芯片上順利地執(zhí)行任務了。

研究人員表示,他們的神經網絡在語音和視覺任務上,達到了與在計算機上執(zhí)行任務的頂級脈沖神經網絡相同的準確性。

換句話說,該算法準確地了解到它需要做哪些改變來克服器件失配的問題。

蘇塞克斯大學的計算神經科學家托馬斯諾沃特尼表示:「這個系統正如預期的那樣具有令人印象深刻的能效:運行所消耗的能量比標準處理器少1000倍左右!

然而,弗倫克爾指出,神經擬態(tài)芯片仍然需要在為類似的語音和視覺識別任務而特別優(yōu)化的硬件面前證明自己。

諾沃特尼也指出,這種方法可能難以擴展到大型的實際任務,因為它仍然需要在計算機和芯片之間來回搬運數據。

團隊的終極目標則是讓脈沖神經網絡可以自始至終地在神經擬態(tài)芯片上訓練和運行,而不需要借助傳統計算機。

不過,設計并生產所需的新一代芯片可能要數年的時間。

作者介紹

弗里德曼曾克

瑞士蘇黎世弗雷德里希米歇爾生物醫(yī)療研究所的神經計算科學家。主研究方向為仿生的脈沖神經網絡的學習、記憶、信息處理過程,以及機器學習與神經計算科學的交匯。

約翰內斯希密爾

德國海德堡大學物理學院專用集成電路實驗室主任、電子視覺研究組負責人。研究方向是混合態(tài)超大規(guī)模集成電路系統的信息處理應用,特別是仿生神經網絡模型的模擬應用方向。

參考資料:

https://www.quantamagazine.org/ai-overcomes-stumbling-block-on-pain-inspired-hardware-20220217/


贊助本站

相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港