展會信息港展會大全

國內(nèi)首個AI安全大賽圓滿收官,預演風險競逐“智”高點
來源:互聯(lián)網(wǎng)   發(fā)布日期:2022-09-19 08:46:33   瀏覽:7400次  

導讀:9月16日,以共筑AI安全 安享智能未來為主題的AISC首屆人工智能安全大賽圓滿落幕。 中科院院士、清華大學人工智能研究院名譽院長張鈸,北京市科學技術委員會、中關村科技園區(qū)管理委員會黨組成員、副主任張宇蕾,北京市經(jīng)濟和信息化委員會黨組成員、副主任潘鋒...

9月16日,以“共筑AI安全 安享智能未來”為主題的AISC首屆人工智能安全大賽圓滿落幕。

中科院院士、清華大學人工智能研究院名譽院長張鈸,北京市科學技術委員會、中關村科技園區(qū)管理委員會黨組成員、副主任張宇蕾,北京市經(jīng)濟和信息化委員會黨組成員、副主任潘鋒,工業(yè)和信息化部網(wǎng)絡安全管理局數(shù)據(jù)安全處四級調(diào)研員張洪為活動致辭。

活動現(xiàn)場

本次大賽由國家工業(yè)信息安全發(fā)展研究中心、清華大學人工智能研究院和北京瑞萊智慧科技有限公司等單位聯(lián)合主辦,系首個全國性人工智能安全賽事,旨在推動人工智能攻防技術創(chuàng)新、實戰(zhàn)演練、場景挖掘和人才培養(yǎng)。

同期舉辦的主題論壇,邀請到多位院士專家、行業(yè)領袖、政企代表出席,共同探討如何在未來智能的全新戰(zhàn)場,打贏技術攻防之戰(zhàn)。

與會專家們表示,重視人工智能安全體系建設,既是當務之急,也是長遠考慮,需加快促進人工智能安全領域關鍵技術研究與攻防實踐。

AI安全風險已非未來挑戰(zhàn),而是眼前威脅

試想一下,有人將一張“神奇的貼紙”放置在面部,就可以使人臉識別門禁系統(tǒng)誤認為是你,從而輕而易舉打開大門;同樣是這張“神奇的貼紙”,把它放置在眼鏡上,就可以1秒解鎖你的手機人臉識別,探取你的隱私如入無人之境。

這并非科幻大片的想象,而是首屆人工智能安全大賽頒獎典禮現(xiàn)場展示的真實攻防場景。

大賽工作人員演示對抗樣本攻擊人臉識別門禁系統(tǒng)

人工智能和其他通用目的技術一樣,在高歌猛進的同時,也帶來了新的風險和隱患。

主辦方北京瑞萊智慧科技有限公司首席執(zhí)行官田天認為,人工智能技術風險發(fā)生的范圍正隨著應用場景的日趨廣泛而逐步擴大,風險發(fā)生的可能性也隨著其應用頻次的增長而持續(xù)提高。

在他看來,人工智能當前的安全風險主要可以從“人”與“系統(tǒng)”這兩個視角來剖析。

從人的視角來評估AI的安全問題,首當其沖就是技術的兩面性問題,存在AI濫用甚至“武器化”的問題。

具體到人工智能的應用中來看,最為典型的代表就是深度偽造技術,它的負向應用風險持續(xù)加劇且已產(chǎn)生實質危害。

而現(xiàn)場的人臉識別破解演示,所揭示的正是系統(tǒng)的風險,它來自于深度學習算法本身的脆弱性。

以深度學習算法為核心的第二代人工智能是個“黑盒子”,具有不可解釋性,意味著系統(tǒng)存在結構性的漏洞,可能受到不可預知的風險,典型的就比如現(xiàn)場演示的“神奇貼紙”,其實就是“對抗樣本攻擊”,通過在輸入數(shù)據(jù)中添加擾動,使得系統(tǒng)作出錯誤判斷。

這一漏洞在自動駕駛感知系統(tǒng)同樣存在,瑞萊智慧演示了用對抗樣本攻擊自動駕駛汽車。

正常情況下,在識別到路障、指示牌、行人等目標后,自動駕駛車輛就會立即停車,但在目標物體上添加干擾圖案后,車輛的感知系統(tǒng)就會出錯,徑直撞上去。

在人工智能的全生命周期,不僅存在算法層面的安全性問題,算力作為人工智能發(fā)展的重要基礎設施,也面臨著諸多風險,推動人工智能算力基礎設施安全發(fā)展具有重要意義。

活動期間,由國家工業(yè)信息安全發(fā)展研究中心牽頭,聯(lián)合華為技術有限公司和北京瑞萊智慧科技有限公司共同撰寫的《人工智能算力基礎設施安全發(fā)展白皮書》正式發(fā)布。

《人工智能算力基礎設施安全發(fā)展白皮書》正式發(fā)布

白皮書圍繞人工智能算力基礎設施安全發(fā)展的意義、內(nèi)涵與體系架構、安全管理現(xiàn)狀、發(fā)展建議等方面展開深入研究。

白皮書指出,人工智能算力基礎設施不同于傳統(tǒng)的算力基礎設施,既是“基礎設施”又是“人工智能算力”也是“公共設施”,具有基建屬性、技術屬性、公共屬性三重屬性。

相應地,推動人工智能算力基礎設施安全發(fā)展應從強化自身安全、保障運行安全、助力安全合規(guī)三個方面發(fā)力,通過強化自身的可靠性、可用性與穩(wěn)定性,保障算法運行時的機密性與完整性,提升用戶的安全管控力、認可度與合規(guī)性等八個領域筑牢人工智能安全防線,打造可信、可用、好用的人工智能算力底座,營造安全、健康、合規(guī)發(fā)展的人工智能產(chǎn)業(yè)生態(tài)。

以賽促研、以賽育人,守護未來智能安全

安全的本質在于對抗升級,構建安全需要一個持續(xù)攻防演進的過程。

田天表示,大賽聚焦人工智能真實應用場景中的典型漏洞及風險,以賽促建、以賽促研,通過考核參賽隊伍的漏洞發(fā)現(xiàn)、漏洞挖掘等能力,探索新型安全需求場景,推動AI攻防技術創(chuàng)新,為強化人工智能治理體系與安全評估能力建設提供支撐。

瑞萊智慧首席執(zhí)行官田天

結合具體賽題來看,自動駕駛安全賽題和人臉識別安全賽題從攻擊視角出發(fā),通過讓選手攻擊目標模型挖掘算法漏洞,旨在發(fā)現(xiàn)更加穩(wěn)定的攻擊算法,以更好的實現(xiàn)準確評估模型的安全性。深度偽造安全賽題則通過分析偽造音視頻的相似性,來溯源不同偽造內(nèi)容是否來自同一種或同一類生物特征生成軟件,以促進對深度偽造檢測技術的發(fā)展,具有重要的現(xiàn)實意義。

構建人工智能的安全生態(tài),一方面需要技術的持續(xù)演進,一方面也需要專項技術人才的建設與培養(yǎng)。

田天表示,由于人工智能安全研究目前仍屬于新興領域,專項人才較少,缺乏系統(tǒng)性的研究隊伍,本次大賽通過實戰(zhàn)演練的方式,全方位驗證和提升選手實戰(zhàn)能力,為培育一批高水平、高層次的人工智能安全新型人才團隊提供了“快速通道”。

自七月開啟報名以來,大賽共吸引來自全國范圍內(nèi)70多所高等高校、科研院所、企業(yè)機構的超過400支團隊,共計600余名選手的踴躍參與。

經(jīng)過三個月的激烈角逐,最終,上海交通大學聯(lián)合戰(zhàn)隊“AreYouFake”與北京交通大學戰(zhàn)隊“BJTU-ADaM”分別摘得深度偽造安全與自動駕駛安全賽道桂冠,北京理工大學戰(zhàn)隊“DeepDream”與建信金科戰(zhàn)隊“Tian Quan&LianYi”共同位列人臉識別賽道第一名。

深度偽造安全競賽前三名

自動駕駛安全競賽前三名

人臉識別安全競賽前三名

本次大賽供了技術交鋒和思維碰撞的平臺,通過競賽的方式挖掘攻擊與防御技術新思路,同時鏈接產(chǎn)業(yè)側真實安全需求,為進一步強化人工智能安全攻防研究提供基礎,也為推動人工智能安全標準及能力建設提供了重要支撐,助力我國人工智能產(chǎn)業(yè)的整體發(fā)展。

專家觀點:沒有高水平安全,就沒有高質量發(fā)展

統(tǒng)籌發(fā)展和安全,是每項新技術發(fā)展過程中面臨的必然問題,如何實現(xiàn)高水平發(fā)展和高水平安全的良性互動,也是當前人工智能產(chǎn)業(yè)發(fā)展最為重要的命題,現(xiàn)場多位專家就此話題展開分享,探索AI安全建設的新思路與新路徑。

人工智能對抗攻防包括對抗樣本、神經(jīng)網(wǎng)絡后門、模型隱私問題等多方面技術。

模型有錯誤就需要進行及時的修復,中國科學院信息安全國家重點實驗室副主任陳愷提出“神經(jīng)網(wǎng)絡手術刀”的方法,通過定位引發(fā)錯誤的神經(jīng)元,進行精準“微創(chuàng)”修復。

陳愷表示,不同于傳統(tǒng)的模型修復工作需要重新訓練模型,或者依賴于較大量的數(shù)據(jù)樣本,這種方式類似于“微創(chuàng)手術”,只需極少量或無需數(shù)據(jù)樣本,能夠大幅提升模型修復效果。

中國科學院信息安全國家重點實驗室副主任陳愷

開放環(huán)境下的人工智能系統(tǒng)面臨諸多安全挑戰(zhàn),如何解決通用人工智能算法全周期的安全保障問題成為重中之重。

北京航空航天大學軟件開發(fā)環(huán)境國家重點實驗室副主任劉祥龍表示,目前人工智能算法及系統(tǒng)的安全性缺乏科學評測手段,難以有效評測完整的人工智能模型和算法能力。

他表示,從技術上來看應形成從安全性測試到安全性分析與安全性加固的完整技術手段,最終形成標準化的測試流程。

同時他指出,未來的人工智能安全應該圍繞從數(shù)據(jù)、算法到系統(tǒng)各個層次上的全面評測,同時配合一套整體的從硬件到軟件的安全可信計算環(huán)境。

北京航空航天大學軟件開發(fā)環(huán)境國家重點實驗室副主任劉祥龍

工商銀行金融研究院安全攻防實驗室主管專家蘇建明表示,人工智能安全治理需要廣泛協(xié)作和開放創(chuàng)新,需加強政府、學術機構、企業(yè)等產(chǎn)業(yè)各參與方的互動合作,建立積極的生態(tài)規(guī)則。

政策層面加快人工智能的立法進程,加強對人工智能服務水平、技術支撐能力等專項監(jiān)督考核力度。學術層面,加大對人工智能安全研究的激勵投入,通過產(chǎn)學研合作模式加快科研成果的轉化與落地。

企業(yè)層面,逐步推動人工智能技術由場景拓展向安全可信發(fā)展轉變,通過參與標準制定,推出產(chǎn)品服務,持續(xù)探索人工智能安全實踐及解決方案。

工商銀行金融研究院安全攻防實驗室主管專家蘇建明

最后,圓桌對話環(huán)節(jié),北京交通大學教授、計算機與信息技術學院副院長景麗萍、清華大學人工智能研究院基礎理論研究中心主任朱軍、北京郵電大學網(wǎng)絡空間安全學院副院長鄧偉洪、北京科技大學計算機與通信工程學院教授陳健生、華為可信AI安全解決方案專家唐文圍繞人工智能安全技術發(fā)展、人工智能安全治理等話題展開深入交流。

專家們認為,從長遠看,人工智能的安全問題,還需從算法模型的原理上突破,唯有持續(xù)加強基礎研究,才能破解核心科學問題,同時他們強調(diào),人工智能的未來發(fā)展需確保對整個社會、國家發(fā)展的有效性和正向促進性,需要政產(chǎn)學研用多方協(xié)同共進。


贊助本站

相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港