劃重點(diǎn)
012007年圖靈獎(jiǎng)得主約瑟夫希發(fā)基思表示,談?wù)揂I風(fēng)險(xiǎn)時(shí)需區(qū)分人為因素和技術(shù)風(fēng)險(xiǎn)。
02人為風(fēng)險(xiǎn)包括算法需求不完整性、算法設(shè)計(jì)缺陷和外部環(huán)境威脅。
03技術(shù)風(fēng)險(xiǎn)分為兩種,一種是用戶提出的需求可能不合法或不道德,另一種是用戶將系統(tǒng)用于風(fēng)險(xiǎn)中。
04約瑟夫希發(fā)基思認(rèn)為,應(yīng)針對人為風(fēng)險(xiǎn)和技術(shù)風(fēng)險(xiǎn)分別制定相應(yīng)對策。
05康奈爾大學(xué)計(jì)算機(jī)科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格指出,人類自身的排外偏見會(huì)導(dǎo)致算法與生俱來的偏見,引發(fā)人類社會(huì)混亂。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
“現(xiàn)在,當(dāng)我們談?wù)撌褂萌斯ぶ悄軒淼娘L(fēng)險(xiǎn)時(shí),我們應(yīng)該區(qū)分哪些風(fēng)險(xiǎn)是人類帶來的,哪些風(fēng)險(xiǎn)是技術(shù)造成。”10月26日,在2024世界頂尖科學(xué)家智能科學(xué)大會(huì)“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇結(jié)束后,Verimag實(shí)驗(yàn)室創(chuàng)始人、2007年圖靈獎(jiǎng)得主約瑟夫希發(fā)基思在接受澎湃科技(www.thepaper.cn)采訪時(shí)表示。
圖靈獎(jiǎng)得主約瑟夫希發(fā)基思在2024世界頂尖科學(xué)家智能科學(xué)大會(huì)上發(fā)表演講。
約瑟夫希發(fā)基思于1946年出生于希臘,在法國完成碩士、博士學(xué)位,并成為法國格勒諾布爾大學(xué)(Université Grenoble Alpes)VERIMAG實(shí)驗(yàn)室創(chuàng)始人和科研主任,2007年希發(fā)基思因在模型檢查理論和應(yīng)用方面的貢獻(xiàn)獲得了圖靈獎(jiǎng),這是計(jì)算機(jī)科學(xué)領(lǐng)域的最高榮譽(yù)之一。
在此次“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇上,談?wù)撈甬?dāng)前AI發(fā)展帶來的風(fēng)險(xiǎn)問題,約瑟夫希發(fā)基思表示,現(xiàn)在,當(dāng)我們談?wù)撌褂萌斯ぶ悄軒淼娘L(fēng)險(xiǎn)時(shí),我們應(yīng)該區(qū)分哪些風(fēng)險(xiǎn)是人類帶來的,哪些風(fēng)險(xiǎn)是技術(shù)造成。對于人工智能來說,非常有可能區(qū)分出哪些風(fēng)險(xiǎn)是人類使用技術(shù)造成的,哪些是技術(shù)本身造成的。
約瑟夫希發(fā)基思指出,前者包括算法需求的不完整性、算法設(shè)計(jì)的缺陷,以及算法部署時(shí)可能面臨的外部環(huán)境威脅。后者分為兩種,比如當(dāng)客戶或投資方對AI系統(tǒng)提出的需求可能不合法或不道德,用戶也可能將系統(tǒng)用于風(fēng)險(xiǎn)中。對此,約瑟夫希發(fā)基思認(rèn)為,應(yīng)針對算法設(shè)計(jì)者和使用者的人為風(fēng)險(xiǎn)以及算法設(shè)計(jì)部署階段的技術(shù)風(fēng)險(xiǎn),分別制定相應(yīng)對策。
“為了避免這一風(fēng)險(xiǎn),法規(guī)非常重要,當(dāng)前所有出現(xiàn)的問題,都是因?yàn)槔嫦嚓P(guān)者沒有給出明確的定義要求。技術(shù)可以適當(dāng)?shù)靥岣邩?biāo)準(zhǔn)。”約瑟夫希發(fā)基思稱。
約瑟夫希發(fā)基思在會(huì)后接受澎湃科技(www.thepaper.cn)采訪時(shí)指出,當(dāng)前,太多人談?wù)揂I(人工智能),但什么是智能,如何真正地實(shí)現(xiàn)應(yīng)用,這些人無法精確地回答。他認(rèn)為,盡管人類在人工智能研究中取得了長足的進(jìn)步,并迎來了生成式AI,但目前應(yīng)用只是弱智能(weak AI),集中在問答應(yīng)用上,并沒有能夠同步人工智能能力的技術(shù)和法則。
澎湃科技注意到,2024頂科協(xié)獎(jiǎng)“智能科學(xué)獎(jiǎng)”得主、康奈爾大學(xué)計(jì)算機(jī)科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格在此次論壇上也指出,當(dāng)前人工智能發(fā)展,人類自身的排外偏見會(huì)導(dǎo)致算法與生俱來的偏見,進(jìn)而引發(fā)人類社會(huì)的一系列混亂。受到經(jīng)濟(jì)激勵(lì)的影響,人們在設(shè)計(jì)算法時(shí)容易陷入“單作”的狀態(tài)。此外,人類在面對超越人類的AI系統(tǒng)時(shí),認(rèn)知上的落后會(huì)帶來麻煩。在和此類AI系統(tǒng)開展合作時(shí),控制權(quán)往往不在人類自己手里。但假如人工智能突然把控制權(quán)交了出來,那么人類就可能犯下嚴(yán)重錯(cuò)誤,因?yàn)锳I知道該怎么做,人類未必。
所以克萊因伯格認(rèn)為,“在做人類判斷和算法知識判斷的時(shí)候,都要考慮風(fēng)險(xiǎn)偏見問題。”在設(shè)計(jì)時(shí)既要追求算法的強(qiáng)大,也要注意,事態(tài)不能發(fā)展到失控的地步。