馬斯克害怕什么
馬斯克以探索發(fā)展各種前沿技術(shù)聞名,從SpaceX、特斯拉到超級(jí)高鐵、人機(jī)通訊等,都是最前沿的技術(shù)。
但是對(duì)這一項(xiàng)技術(shù),他非常警惕,甚至認(rèn)為人類有可能因?yàn)樗鴼,那就是人工智能(AI)。
他在2014年的麻省理工學(xué)院演講時(shí)稱AI人類為“最大的生存威脅”,并將其與“召喚惡魔”相提并論。
馬斯克并不是唯一一個(gè)發(fā)出警報(bào)的人。牛津大學(xué)和加州大學(xué)伯克利分校的 AI科學(xué)家,斯蒂芬霍金等名人以及許多發(fā)表突破性成果的研究人員都同意馬斯克的觀點(diǎn),認(rèn)為AI可能非常危險(xiǎn)。
人工智能毀滅人類的能力
對(duì)于許多人,甚至許多機(jī)器學(xué)習(xí)研究人員,超過人類的AI聽起來就像是遙不可及的夢(mèng)。人類仍在努力解決機(jī)器學(xué)習(xí)方面的簡(jiǎn)單問題。比如在異常情況下的自動(dòng)駕駛,因?yàn)槿祟惪梢员灸艿叵氲降暮芏嗍虑椋ɡ,預(yù)測(cè)騎自行車的人的運(yùn)動(dòng),識(shí)別在風(fēng)中飄動(dòng)的塑料袋)都很難教計(jì)算機(jī)。超越人類的能力似乎還有很長(zhǎng)的路要走。
但是需要指出,我們?nèi)四X是由一堆分子組成的,這些分子以某種形式的排列之后,大腦就獲得了思考計(jì)算的能力,但沒有物理規(guī)律限制另外一種分子排列形成一種更強(qiáng)大的思考計(jì)算能力。簡(jiǎn)而言之,就是我們不能把我們的大腦看得太特殊,完全可能存在其他結(jié)構(gòu)比我們大腦更強(qiáng)大。
有一種人工智能奇點(diǎn)假說:
當(dāng)人創(chuàng)造出一種智力能力全面超出人類的人工智能時(shí),這種人工智能就有能力創(chuàng)造出比自己更先進(jìn)的人工智能,因?yàn)樗热寺斆,必然能比人類?chuàng)造出更好的。
如果不加限制,人工智能就可無限進(jìn)化,由于人工智能那超強(qiáng)的計(jì)算力,可能在人創(chuàng)造出超出人類智力的人工智能后的幾秒,就能誕生一種超出人類理解范圍的人工智能,到時(shí)這種人工智能看待人類可能和看待貓狗差不多。
我們要怎么辦
當(dāng)人們引起火災(zāi),可以撥打119來滅火,一開始人類交通混亂,人們發(fā)明了交通信號(hào)燈,之前人類都是從錯(cuò)誤中吸取教訓(xùn)然后來改正它。
但是人工智能很可能不會(huì)留給人類這樣的機(jī)會(huì),因此我們需要提前計(jì)劃。
馬斯克認(rèn)為目前人工智能力量非常集中,尤其是在Google / DeepMind(就是創(chuàng)造Alpha狗)的組織,需要加強(qiáng)這些組織的第三方監(jiān)管。
同時(shí),他認(rèn)為:“在接下來的幾十年中,我們要么走向自我毀滅,要么走向人類大繁榮,最終遍布整個(gè)宇宙。”
好了,今天就到這里,歡迎大家關(guān)注我,下次再見。