展會(huì)信息港展會(huì)大全

對(duì)話聶再清:7年過去了,通過圖靈測試的聊天機(jī)器人還不夠”聰明”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-07-21 14:04:39   瀏覽:8267次  

導(dǎo)讀:作者 | 維克多 編輯 | 琰琰 2014年,在英國皇家學(xué)會(huì)舉行的2014圖靈測試大會(huì)上,聊天程序尤金古斯特曼 (Eugene Goostman)首次通過了圖靈測試。在驚呼人工智能進(jìn)入新時(shí)代的同時(shí),人們卻仍然認(rèn)為以AI技術(shù)為支撐的聊天機(jī)器人還不夠機(jī)靈,無法準(zhǔn)確理解人類句意...

作者 | 維克多

編輯 | 琰琰

2014年,在英國皇家學(xué)會(huì)舉行的"2014圖靈測試"大會(huì)上,聊天程序“尤金古斯特曼" (Eugene Goostman)首次通過了圖靈測試。在驚呼人工智能進(jìn)入新時(shí)代的同時(shí),人們卻仍然認(rèn)為以AI技術(shù)為支撐的聊天機(jī)器人還不夠”機(jī)靈”,無法準(zhǔn)確理解人類句意。

7年過去了,已經(jīng)存在”足夠機(jī)靈”的聊天機(jī)器人了么?當(dāng)我們抱著這個(gè)問題再次咨詢清華大學(xué)國強(qiáng)教授、智能產(chǎn)業(yè)研究院首席研究員聶再清的時(shí)候,聶教授表示,雖然自然語言處理領(lǐng)域發(fā)展迅速,但本質(zhì)問題仍然沒有解決。即使最先進(jìn)的AI模型,仍然不能完全理解上下文信息,甚至連一句話的信息都無法做到100%完全理解。

因此,在開放領(lǐng)域,業(yè)界打造的AI對(duì)話系統(tǒng)仍然無法大規(guī)模的靈活應(yīng)用,但在一些封閉領(lǐng)域,例如點(diǎn)歌系統(tǒng),AI已經(jīng)可以“適配”大多數(shù)問答。

除了自然語言處理領(lǐng)域的問題,AI科技評(píng)論在2021年世界人工智能大會(huì)的可信AI論壇上,針對(duì)“AI的可信”和聶教授進(jìn)行了交流。

問題:您如何理解可信AI?它有怎樣的內(nèi)涵和外延?

聶再清:當(dāng)前學(xué)術(shù)界和工業(yè)界提到的可信AI、負(fù)責(zé)任AI、可持續(xù)AI幾個(gè)概念,它們?cè)诒举|(zhì)上相差不大?尚啪鸵馕吨沙掷m(xù)和負(fù)責(zé)任。大家總是有意無意地把AI用拼音翻譯成“愛”,表達(dá)了大家對(duì)AI的期許就是向善。

此外,我有一個(gè)觀點(diǎn),對(duì)于我們廣大崇尚科技向善的人工智能研發(fā)人員而言,可信人工智能就是人工智能,因?yàn)槲覀儾豢赡茏霾豢尚湃斯ぶ悄。只有可信人工智能技術(shù)才有可能走向大規(guī)模日常應(yīng)用,成為用戶長期生活習(xí)慣的一部分。能在日常生活中用戶帶來價(jià)值的人工智能,同時(shí)能被所有用戶接受和喜愛的,基本上來講就是可信的。當(dāng)然可信人工智能是要經(jīng)得起時(shí)間考驗(yàn)的,也必須是與時(shí)俱進(jìn)的。

問題:可信人工智能在哪些領(lǐng)域正在慢慢成熟?

聶再清:用我正在從事的兩個(gè)AI應(yīng)用領(lǐng)域來舉例:一個(gè)是自動(dòng)駕駛,另一個(gè)是個(gè)性化的健康管理助手。

自動(dòng)駕駛的可信度在于安全。保障安全的一個(gè)方式是車路協(xié)同,即同時(shí)優(yōu)化車輛和道路,將道路的數(shù)據(jù)和車輛的數(shù)據(jù)同時(shí)輸入系統(tǒng),從而提供雙重保障。這會(huì)大大增強(qiáng)自動(dòng)駕駛系統(tǒng)的穩(wěn)定性和魯棒性,最終提升了AI的安全性。

目前自動(dòng)駕駛的研發(fā)創(chuàng)新分為兩個(gè)發(fā)力方向,一種是在單車智能上發(fā)力,不斷迭代升級(jí),逐漸占領(lǐng)市場;另一種是強(qiáng)調(diào)改造道路,讓其環(huán)境更加適合車輛,在一開始就實(shí)現(xiàn)車路協(xié)同。這只是現(xiàn)階段的兩種不同打法,我認(rèn)為在自動(dòng)駕駛成為主流出行方式的時(shí)候,最終一定會(huì)走向車路協(xié)同,路一定會(huì)變成適合自動(dòng)駕駛的路。因?yàn)橹挥邪踩目尚臕I才有可能走進(jìn)大家的日常生活。

個(gè)性化的健康管理旨在時(shí)刻“觀察”用戶的健康情況。在IOT設(shè)備或傳感器等硬件逐漸成熟的條件下,越來越多的信息能夠及時(shí)反饋到AI系統(tǒng),那么用戶的健康助手就可以對(duì)主人的日常膳食和運(yùn)動(dòng)進(jìn)行精準(zhǔn)的個(gè)性化推薦。這在一定程度上能夠緩解醫(yī)生緊缺的現(xiàn)狀。

但這里遇到的“可信”問題是隱私保護(hù),因?yàn)榇罅康男畔⒈簧蟼鞯较到y(tǒng),有隱私泄露的風(fēng)險(xiǎn)。如何解決?聯(lián)邦學(xué)習(xí)作為一種數(shù)據(jù)不出本地的AI模型正在發(fā)揮作用。當(dāng)然,聯(lián)邦學(xué)習(xí)本身也存在公平性、魯棒性、后門攻擊等問題,因此,我們清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)也在推進(jìn)數(shù)據(jù)安全和聯(lián)邦學(xué)習(xí)方面的科研。只有真正做好了隱私保護(hù),實(shí)現(xiàn)了真正的可信AI,主動(dòng)健康管理助手才有可能走進(jìn)千家萬戶,成為每個(gè)人在飲食和運(yùn)動(dòng)方面的助手。

問題:在自然語言處理領(lǐng)域,可信AI的研究有哪些難點(diǎn)?

聶再清:現(xiàn)在的AI還無法完全理解人的意思,一些對(duì)話系統(tǒng)的模型還僅是基于“匹配”,當(dāng)詢問AI一個(gè)問題的時(shí)候,它所能做的是在數(shù)據(jù)庫里尋找一個(gè)最符合的答案(或者基于概率生成回復(fù)的句子),并沒有通篇理解人類問題的含義,所以一些人機(jī)對(duì)話事故,例如臟話、句不達(dá)意是不可避免的。雖然,有時(shí)候我們認(rèn)為AI非常機(jī)靈,但總是會(huì)“碰上”不恰當(dāng)?shù)幕貜?fù)。

采取“黑名單”等方式或許可以避免,但尚未找到更加本質(zhì)的方式讓AI完全理解人類所表達(dá)的意思。目前,構(gòu)建一個(gè)全自動(dòng)化的對(duì)話系統(tǒng)非常困難,科技發(fā)展尚未到如此先進(jìn)的水平,更多的是在某個(gè)固定的領(lǐng)域,進(jìn)行簡短的對(duì)話(或?qū)τ谀承└哳l對(duì)話場景設(shè)計(jì)對(duì)話模版)。在開發(fā)領(lǐng)域的對(duì)話,AI能做好一個(gè)捧哏(i.e. 回復(fù)比較通用,看上去好像和上文能對(duì)的上,但是實(shí)際上并不理解具體語義)的角色就非常不錯(cuò)。

綜上,目前所能實(shí)現(xiàn)的僅是讓某些固定領(lǐng)域,采用確保安全的有限AI回復(fù),可以增加回復(fù)多樣性和自然度。但在開放領(lǐng)域,個(gè)人認(rèn)為尚未成熟。

問題:如何用技術(shù)解決數(shù)據(jù)安全問題?

聶再清:技術(shù)方面,通過一些加密和隱私計(jì)算的方法能夠幫到一部分,但是關(guān)鍵還是靠法律。最近,有很多數(shù)據(jù)安全相關(guān)法律在公布,也意味著國家對(duì)數(shù)據(jù)安全的重視。法律代表著共識(shí),代表著大家對(duì)技術(shù)發(fā)展方向的共同期望。如果沒有嚴(yán)格的法律保護(hù),可能會(huì)因?yàn)槟骋淮闻既皇录斐傻牟缓媒Y(jié)果,導(dǎo)致用戶對(duì)某項(xiàng)技術(shù)的不信任?赡苁沟媚承┍緛砗苡袧摿Φ募夹g(shù)因?yàn)闆]有做好安全保護(hù)工作而受到阻礙,欲速而不達(dá)。

當(dāng)然,不是所有的規(guī)范都能起到保護(hù)作用,好的法規(guī)能夠加速技術(shù)發(fā)展。在技術(shù)創(chuàng)新階段,應(yīng)該采取摸著石頭過河的方式,不能放任自由,野蠻生長。

當(dāng)然,如果一個(gè)領(lǐng)域發(fā)生大量的技術(shù)創(chuàng)新,確實(shí)會(huì)出現(xiàn)法規(guī)滯后的現(xiàn)象,但一定要確保大原則不出錯(cuò),小的試錯(cuò)成本可能還可以接受。我們要提供廣泛的創(chuàng)新空間來讓AI創(chuàng)造出更多的用戶價(jià)值,但同時(shí)要確保數(shù)據(jù)安全這個(gè)大原則。

問題:您如何看待AI導(dǎo)致的公平問題以及AI未來的發(fā)展?

聶再清:我們認(rèn)為AI會(huì)朝著越來越公平的方向發(fā)展。因?yàn)槿斯ぶ悄艿谋澈笫侨祟,我相信主流的AI研發(fā)人員都是崇尚科技向善的,他們會(huì)本著公平的原則設(shè)計(jì)數(shù)據(jù)庫、設(shè)計(jì)算法、運(yùn)營產(chǎn)品才能保證技術(shù)的公平。對(duì)于少量的非人類主流價(jià)值觀的科研人員,我們的法律法規(guī)會(huì)保證任何不公平的AI都不會(huì)得到發(fā)展,而且我們的法律法規(guī)一定還會(huì)與時(shí)俱進(jìn),不斷迭代的。

我始終認(rèn)為算法是人類的助手,現(xiàn)在還沒有看到因?yàn)闄C(jī)器完全自主學(xué)習(xí)、發(fā)展壯大和繁殖,最后導(dǎo)致人類對(duì)它們失控的例子。我相信在未來也不可能會(huì)發(fā)生這樣的情況。現(xiàn)有AI系統(tǒng)都是基于人類經(jīng)驗(yàn)來設(shè)計(jì)和控制的,目前還看不到非人類設(shè)計(jì)或允許的機(jī)器自己“拿主意”的苗頭。關(guān)于未來會(huì)不會(huì)存在機(jī)器人聯(lián)盟對(duì)抗人類?至少目前還看不到。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港