展會信息港展會大全

人類不必?fù)?dān)憂強(qiáng)人工智能的發(fā)展
來源:互聯(lián)網(wǎng)   發(fā)布日期:2020-11-29 07:13:17   瀏覽:28350次  

導(dǎo)讀:如今,很多人擔(dān)心人工智能技術(shù)會發(fā)展成為邪惡的機(jī)器人,甚至達(dá)到主導(dǎo)世界的地步。但是不要害怕,這種情況不會發(fā)生。 人工智能已經(jīng)進(jìn)入了人們的工作和日常生活中。它正在推動醫(yī)學(xué)、天氣預(yù)報(bào)、工廠自動化、自動駕駛汽車等各行業(yè)的進(jìn)步。甚至高爾夫俱樂部制造商...

如今,很多人擔(dān)心人工智能技術(shù)會發(fā)展成為“邪惡的機(jī)器人”,甚至達(dá)到主導(dǎo)世界的地步。但是不要害怕,這種情況不會發(fā)生。

人工智能已經(jīng)進(jìn)入了人們的工作和日常生活中。它正在推動醫(yī)學(xué)、天氣預(yù)報(bào)、工廠自動化、自動駕駛汽車等各行業(yè)的進(jìn)步。甚至高爾夫俱樂部制造商也采用人工智能技術(shù)設(shè)計(jì)球桿。

其實(shí)人們每天都在與人工智能互動。谷歌翻譯幫助人們?yōu)g覽國外網(wǎng)站,并與不同國籍的人員交談。人工智能供應(yīng)商已將語音識別功能內(nèi)置到許多應(yīng)用程序中。人們每天使用Siri和Alexa等語音助理來幫助完成簡單的任務(wù)。人臉識別應(yīng)用程序自動為照片添加標(biāo)簽,人工智能系統(tǒng)在諸如圍棋和德州撲克之類的復(fù)雜游戲中擊敗了專業(yè)游戲玩家,此外工廠的機(jī)器人替代工作人員實(shí)施重復(fù)性工作。

人工智能的最新進(jìn)展使人們知道未來將將何去何從。科幻小說作家數(shù)十年來一直在思考這個(gè)問題。在有些人描述的未來世界中,將會出現(xiàn)功能強(qiáng)大并且友善的智能機(jī)器人,例如《星球大戰(zhàn)》電影中的C3PO機(jī)器人。也有人則將智能機(jī)器人描述成既不友善也不邪惡,而是具有人類般的弱點(diǎn),例如西方世界的類人機(jī)器人,這種機(jī)器人有著自己的意識和情感,不愿意被人類奴役。盡管如此,在其他作家的作品中,也有與人類為敵的“邪惡的機(jī)器人”,例如電影《2001年的哈爾:太空漫游》和電影《終結(jié)者》中的智能機(jī)器人。

人們對于人工智能可能存在潛在危險(xiǎn)的猜測并不局限在科幻小說領(lǐng)域。許多權(quán)威技術(shù)專家預(yù)測,隨著人工智能系統(tǒng)變得越來越智能,機(jī)器人最終將主導(dǎo)整個(gè)世界。特斯拉公司創(chuàng)始人埃隆馬斯克表示,人工智能是人類的“最大的生存威脅”,它對文明的存在構(gòu)成了根本性的風(fēng)險(xiǎn)。而已故著名物理學(xué)家斯蒂芬霍金曾說:“這可能預(yù)示著人類的終結(jié)。”人類未來研究所創(chuàng)始人、哲學(xué)家尼克博斯特羅姆認(rèn)為,人工智能構(gòu)成了人類有史以來最大的威脅,其威脅甚至大于核武器。

人工智能與狹義人工智能

這些技術(shù)專家和科幻小說作家所擔(dān)心的人工智能系統(tǒng)都是強(qiáng)人工智能(人工通用智能,AGI)的例子。強(qiáng)人工智能(人工通用智能,AGI)系統(tǒng)與人類有著共同的能力:推理,處理視覺、聽覺和其他輸入,并能適應(yīng)各種環(huán)境。這些系統(tǒng)和人類一樣,對各種各樣的事件和話題有著豐富的知識和交流能力。

科幻小說虛構(gòu)的強(qiáng)人工智能系統(tǒng)(即虛構(gòu)的邪惡機(jī)器人)與當(dāng)今的人工智能系統(tǒng)相比有兩個(gè)顯著的區(qū)別:首先,當(dāng)今的每個(gè)人工智能系統(tǒng)只能執(zhí)行比較狹義的任務(wù)。例如學(xué)會給照片命名的人工智能系統(tǒng)不能做其他任何事情,甚至無法區(qū)分狗和大象。它不能回答問題、檢索信息或進(jìn)行對話。其次,當(dāng)今的人工智能系統(tǒng)對于世界幾乎沒有常識性的知識,因此不能基于這些知識進(jìn)行推理。例如,面部識別系統(tǒng)可以識別特定的人物,但對其他人一無所知。它不會像人類那樣能夠看到或聽到,也不像人類那樣進(jìn)食、睡覺,工作,更不會犯罪或墜入愛河。

當(dāng)今的人工智能系統(tǒng)都是狹義的人工智能系統(tǒng),這個(gè)術(shù)語是由未來主義專家雷庫茲韋爾在2005年提出的,用來描述這些區(qū)別:機(jī)器人只能執(zhí)行一個(gè)特定的任務(wù)。雖然狹義人工智能系統(tǒng)的性能可以使它們看起來很智能,但事實(shí)并非如此。

相比之下,人類和虛構(gòu)的智能機(jī)器人可以執(zhí)行大量不同的任務(wù)。他們不僅認(rèn)得人臉,還可以讀報(bào)、做飯、系鞋帶、討論時(shí)事,以及執(zhí)行許多其他任務(wù)。虛構(gòu)的智能機(jī)器人也基于人類對世界的常識進(jìn)行推理,將常識、經(jīng)驗(yàn)和背景知識應(yīng)用于各種各樣的任務(wù)中。例如,當(dāng)人類從柜子里拿出一個(gè)玻璃杯時(shí),就會利用所知的重力知識,并且知道如果抓得不夠緊,玻璃杯就會從手中掉下來。人類并不是從重力的定義或數(shù)學(xué)方程式中的描述中獲得知識,而是在現(xiàn)實(shí)生活的經(jīng)驗(yàn)中無意識獲得知識。人們每天都用這些知識來完成很多其他的任務(wù)。

新的人工智能范例

人們面臨的最大的問題是,如今的狹義人工智能系統(tǒng)是否會演變成具有人類智能的智能機(jī)器人,這種智能系統(tǒng)可以使用常識推理來執(zhí)行許多不同的任務(wù)。

當(dāng)今大多數(shù)突破性的人工智能系統(tǒng)都使用一種名為“監(jiān)督學(xué)習(xí)”的機(jī)器學(xué)習(xí)形式,其目的是學(xué)習(xí)一種可以從信息輸入中識別輸出類別的功能。例如,面部識別系統(tǒng)將圖像作為輸入,并識別圖中人員的名字。“強(qiáng)化學(xué)習(xí)”也是如此,其目標(biāo)是學(xué)習(xí)可以預(yù)測給定狀態(tài)的最佳動作的功能。

多倫多大學(xué)機(jī)器學(xué)習(xí)專家杰弗里 辛頓表示,他對當(dāng)前的模式(包括監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和自然語言處理)是否會導(dǎo)致強(qiáng)人工智能(以及科幻小說中的邪惡機(jī)器人)產(chǎn)生懷疑。辛頓建議,要采用人工智能,可能需要拋棄目前占主導(dǎo)地位的監(jiān)督學(xué)習(xí)范例。Facebook公司首席人工智能科學(xué)家Yann LeCu還表示,監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)永遠(yuǎn)不會創(chuàng)建強(qiáng)人工智能,因?yàn)樗鼈儾荒苡糜趧?chuàng)建對世界有常識的系統(tǒng)。

一些人工智能研究人員開始探索一些新的方法。在評估這些新方法的可行性時(shí),必須記住,對狹義人工智能成就的熱情不應(yīng)轉(zhuǎn)化為對這些新方法的樂觀想法,因?yàn)楝F(xiàn)有的狹義人工智能方法在構(gòu)建強(qiáng)人工智能系統(tǒng)方面將面臨一條死胡同。

像人類一樣學(xué)習(xí)

很多研究人員將人類的學(xué)習(xí)描述為組合性學(xué)習(xí):學(xué)習(xí)許多技能,然后將它們組合起來學(xué)習(xí)新技能。人類將學(xué)習(xí)有關(guān)世界的概念、規(guī)則和知識,這些技能將隨著人們學(xué)習(xí)執(zhí)行不同任務(wù)而轉(zhuǎn)移。這些研究人員認(rèn)為,常識性人工智能推理(以及人工智能和邪惡機(jī)器人)的關(guān)鍵在于構(gòu)建像人類一樣可以組合性學(xué)習(xí)的人工智能系統(tǒng)。這個(gè)想法是讓人工智能系統(tǒng)學(xué)習(xí)作為構(gòu)建塊的概念和規(guī)則,使其能夠?qū)W習(xí)更高層次的概念和更高層次的規(guī)則。

人們對這種方法的最大擔(dān)憂是,人工智能系統(tǒng)在理解人類如何獲得常識性知識方面的進(jìn)展很緩慢。四十年前,就人工智能系統(tǒng)能否回答“德國牧羊犬的耳朵是什么形狀”這樣的問題進(jìn)行了長時(shí)間的辯論。盡管人工智能和認(rèn)知科學(xué)領(lǐng)域的一些權(quán)威人士參加了分析和辯論,但仍然沒有確切的答案。人工智能能否回答有關(guān)狗耳朵形狀的問題,只是大量的代表性方案和推理過程的其中之一。而且,人們甚至都不知道這些方案和推理過程是天生的還是后天的。五十多年來,這一直是學(xué)術(shù)辯論中持續(xù)討論的話題,目前尚無定論。

那么要多久才能了解人們?nèi)绾慰创斯ぶ悄芎托皭簷C(jī)器人的真正進(jìn)展?按照目前的進(jìn)展速度,也許需要幾千年,也許可能永遠(yuǎn)不會發(fā)生。

深度學(xué)習(xí)

一些研究人員認(rèn)為,盡管監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)本身是構(gòu)建人工智能系統(tǒng)的死胡同,但深度學(xué)習(xí)可能將人們帶到目的地。Yann Lecun和Greg Brockman都提出了擴(kuò)展無監(jiān)督學(xué)習(xí)系統(tǒng)的想法,希望能夠神奇地獲取有關(guān)常識并學(xué)習(xí)基于該知識的推理。

GPT-3系統(tǒng)是可擴(kuò)展性一個(gè)很好的例子,其能力比GPT-2系統(tǒng)強(qiáng)出100倍,而GPT-2系統(tǒng)本身比GPT原始系統(tǒng)強(qiáng)出10倍。GPT-2系統(tǒng)表現(xiàn)出令人驚訝的能力,可以產(chǎn)生人類的聲音(即使不是始終連貫的),而GPT-3系統(tǒng)可以產(chǎn)生更好的結(jié)果。開發(fā)GPT系統(tǒng)的OpenAI研究人員認(rèn)為這是一種新興功能,這是由于擴(kuò)大網(wǎng)絡(luò)規(guī)模而產(chǎn)生的。

GPT-3系統(tǒng)無疑具有提取其訓(xùn)練文本的統(tǒng)計(jì)規(guī)律性的強(qiáng)大能力,也可能具有記憶小片段文本的能力。但是,它沒有學(xué)習(xí)有關(guān)常識的能力,也沒有基于這種知識獲得推理的能力。在這個(gè)階段,沒有證據(jù)表明可以從這種方法中學(xué)習(xí)常識和推理技能,也沒有任何理由相信它會發(fā)生。

Yoshua Bengio提出了新穎的深度學(xué)習(xí)架構(gòu),旨在使用深度學(xué)習(xí)突破狹義人工智能的局限性。其中一個(gè)目標(biāo)是學(xué)習(xí)更高層次的構(gòu)建塊,可以幫助人工智能系統(tǒng)進(jìn)行組合學(xué)習(xí)。這是一個(gè)有趣的想法。

模擬人腦

行業(yè)專家提出的另一種強(qiáng)人工智能方法是了解人腦物理結(jié)構(gòu),并在其之后建立人工智能系統(tǒng)的模型。經(jīng)過幾十年的研究,人們對人類大腦如何處理信息只知道一些非常基本的事實(shí)。例如,人們知道大腦皮層可以靜態(tài)和動態(tài)地存儲所學(xué)知識,基底神經(jīng)節(jié)處理各種目標(biāo),并通過強(qiáng)化學(xué)習(xí)來選擇信息,而邊緣腦結(jié)構(gòu)連接大腦和身體并產(chǎn)生動機(jī)、情感和事物的價(jià)值。

在大腦中建立神經(jīng)元模型的想法已經(jīng)提出了40多年,但現(xiàn)在還沒有獲得真正的吸引力,部分原因是在理解人腦方面進(jìn)展極為緩慢,在人工智能程序中沒有具體的方法來模擬人們所知道的人腦。在這里似乎又回到了起點(diǎn),沒有證據(jù)表明這種方法會成功。

速度更快的計(jì)算機(jī)

技術(shù)未來主義者雷庫茲韋爾一直認(rèn)為,人工智能將作為更大、更快的計(jì)算機(jī)的副產(chǎn)品而出現(xiàn)。他提出了“奇點(diǎn)”這一理念,這是計(jì)算機(jī)能夠自己智能地改進(jìn)程序的一個(gè)時(shí)間點(diǎn)。他指出,一旦發(fā)生這種情況,人工智能系統(tǒng)的智力將以指數(shù)級的速度增長,將很快達(dá)到超人的智力水平。庫茲韋爾預(yù)測,“奇點(diǎn)”將在2045年左右出現(xiàn)。

也就是說,很難想象處理能力本身如何能夠創(chuàng)造強(qiáng)人工智能。無論是使用上世紀(jì)70年代還是當(dāng)今天先進(jìn)的沒有加載任何程序的計(jì)算機(jī),這些計(jì)算機(jī)都無法執(zhí)行任何操作。如果在這兩種計(jì)算機(jī)上都加載一個(gè)字處理程序,那么都只能執(zhí)行字處理。更新、更現(xiàn)代化的計(jì)算機(jī)將能夠更快地響應(yīng)和處理更大的文檔,但它們?nèi)匀恢荒苓M(jìn)行文字處理。未來的計(jì)算機(jī)也是這樣。

處理速度更快的計(jì)算機(jī)本身不會產(chǎn)生人工智能。正如Steven Pinker所說,“更強(qiáng)的處理能力并不是解決所有問題的靈丹妙藥。”在強(qiáng)人工智能不太可能實(shí)現(xiàn)的情況下,編程和學(xué)習(xí)算法可能會非常復(fù)雜,以至于需要功能非常強(qiáng)大的計(jì)算機(jī)。

強(qiáng)人工智能能夠?qū)崿F(xiàn)嗎?

狹義的人工智能系統(tǒng)背后的技術(shù)無法發(fā)展到“邪惡的機(jī)器人”。對于如何實(shí)現(xiàn)強(qiáng)人工智能,業(yè)界提出一些想法,但這些想法并不明確。自從上世紀(jì)50年代末以來,人工智能研究人員對如何創(chuàng)建強(qiáng)人工智能提出了多種理念,但沒有人能夠獲得成功,也沒有證據(jù)表明現(xiàn)在的想法會更好。

艾倫人工智能研究所的首席執(zhí)行官Oren Etzion表示,對實(shí)現(xiàn)強(qiáng)人工智能的樂觀和恐懼都源于狹義人工智能系統(tǒng)的成功。這種對狹義人工智能的樂觀情緒自然蔓延到了對強(qiáng)人工智能前景的樂觀。

人們可能并不會在有生之年發(fā)生時(shí)間之旅。可能會幻想,科技將讓人類進(jìn)入冬眠或隱身狀態(tài),或者通過心靈傳送將人類的思想輸入到電腦中,甚至逆轉(zhuǎn)人類衰老過程。如果是這樣,那么人們應(yīng)該把人工智能和“邪惡的機(jī)器人”歸為同類。

原文標(biāo)題:Don't Fear Artificial General Intelligence,作者:Steve Shwartz

【51CTO譯稿,合作站點(diǎn)轉(zhuǎn)載請注明原文譯者和出處為51CTO.com】


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港