人工智能時代已經(jīng)來臨了,人們都嚇壞了。
幸運(yùn)的是,我在這里帶來好消息:人工智能不會摧毀世界,事實(shí)上可能會拯救它。
首先,簡單介紹一下什么是人工智能:將數(shù)學(xué)和軟件代碼用來教會計算機(jī)如何理解、綜合和生成知識,類似于人類的方式。人工智能就像任何其他的計算機(jī)程序一樣運(yùn)行、接受輸入、處理并生成輸出。人工智能的輸出在許多領(lǐng)域都非常有用,包括編程、醫(yī)學(xué)、法律和創(chuàng)意藝術(shù)。它是由人擁有并受人控制的,就像任何其他技術(shù)一樣。
更簡潔地說,人工智能不是那種會活過來的殺手軟件和機(jī)器人,就像電影中所看到的那樣,決定謀殺人類或以其他方式毀滅一切。
更進(jìn)一步地說,人工智能可以是一種讓我們關(guān)心的一切變得更好的方式。
為什么人工智能可以讓我們關(guān)心的一切變得更好
社會科學(xué)經(jīng)過數(shù)十年和成千上萬個研究,所得出的最核心結(jié)論是,人類智力能夠在生活的廣泛領(lǐng)域中帶來更好的結(jié)果。更聰明的人在幾乎所有活動領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成就、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、壽命、學(xué)習(xí)新技能、處理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、解決沖突、閱讀理解、金融決策、理解他人的觀點(diǎn)、創(chuàng)意藝術(shù)、育兒成果以及生活滿意度。
此外,數(shù)千年來,人類用智力創(chuàng)造出今天的世界:科學(xué)、技術(shù)、數(shù)學(xué)、物理學(xué)、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、倫理學(xué)、道德。如果智力沒有應(yīng)用于所有這些領(lǐng)域,我們現(xiàn)在仍然會生活在土壞房中,終日耕種以果腹。我們利用智力,在過去的4000年里將我們的生活水平提高了大約10,000倍。
人工智能給我們帶來的機(jī)會是深刻增強(qiáng)人類智力,使智力的所有結(jié)果(以及許多其他結(jié)果,從創(chuàng)造新藥物到解決氣候變化到探索星際的技術(shù))在上述的基礎(chǔ)上變得更好得多。
人工智能對人類智力的增強(qiáng)已經(jīng)開始了人工智能已經(jīng)以各種形式存在于我們周圍,如各種計算機(jī)控制系統(tǒng),現(xiàn)在通過ChatGPT等人工智能大型語言模型迅速升級,并將在此基礎(chǔ)上迅速加速如果我們允許的話。
在我們的人工智能新時代中:
每個孩子都將擁有一位無比耐心、無比關(guān)懷、無比博學(xué)、無比樂于助人的人工智能導(dǎo)師。人工智能導(dǎo)師將伴隨著每個孩子發(fā)展的每一步,以機(jī)器式的無限之愛,幫助他們發(fā)揮出最大限度的潛能。。
每個人都將擁有一位無比耐心、無比關(guān)懷、無比博學(xué)、無比樂于助人的人工智能助手/教練/導(dǎo)師/訓(xùn)練師/顧問/治療師。人工智能助手將陪伴在每個人生活的各個機(jī)遇和挑戰(zhàn)中,幫助每個人最大限度地收獲成果。
每位科學(xué)家都將擁有一位人工智能助手/合作者/伙伴,大大擴(kuò)展他們的科學(xué)研究的范圍和取得更大的成就。每位藝術(shù)家、工程師、商人、醫(yī)生、照料者都將在他們的領(lǐng)域中有同樣的機(jī)會。
每位組織的領(lǐng)導(dǎo)者CEO、政府官員、非營利組織主席、運(yùn)動教練、教師也將如此。領(lǐng)導(dǎo)者的智力增強(qiáng)可能是最重要的,因?yàn)楦脹Q策所帶來的放大效果對其領(lǐng)導(dǎo)的人群來說是巨大的。
整個經(jīng)濟(jì)的生產(chǎn)力增長將大大加速,推動經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)建、新工作的創(chuàng)造和工資增長,并帶來一個全球物質(zhì)繁榮水平更高的新時代。
科學(xué)突破、新技術(shù)和藥物的發(fā)現(xiàn)將大大擴(kuò)展,因?yàn)槿斯ぶ悄軒椭覀冞M(jìn)一步解碼自然法則,并物盡其利地應(yīng)用于我們的福祉。
創(chuàng)意藝術(shù)將進(jìn)入黃金時代,因?yàn)榻?jīng)過人工智能增強(qiáng)的藝術(shù)家、音樂家、作家和電影制片人能夠比以往更快、規(guī)模更大地實(shí)現(xiàn)他們的創(chuàng)意。
我甚至認(rèn)為當(dāng)戰(zhàn)爭不可避免時,人工智能會通過大幅降低戰(zhàn)時死亡率來減少戰(zhàn)爭的殺傷力。每一場戰(zhàn)爭,都以在巨大壓力下、在非常有限的信息下由非常有限的人類領(lǐng)導(dǎo)者做出的可怕決策為特征,F(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)者將擁有人工智能顧問,能夠幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,從而最大程度地減少風(fēng)險、錯誤和不必要的流血。
簡而言之,今天人們用自己的自然智慧所做的任何事情,通過人工智能可以做得更好,而且我們將能夠應(yīng)對那些在沒有人工智能的情況下無法解決的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行。
而這不僅僅是智能的問題!人工智能最被低估的特性也許是它能夠使人更加人性化。人工智能藝術(shù)使那些缺乏技術(shù)手段的人們獲得了自由,可以創(chuàng)造和分享他們的作品和創(chuàng)意。與富有共情能力的人工智能朋友交談,確實(shí)能提高他們應(yīng)對逆境的能力。而且人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具關(guān)懷能力。與使世界變得更加冷酷和機(jī)械化不同,具有無限耐心和同情心的人工智能,將使世界變得更溫暖、更美好。
利害關(guān)天,機(jī)遇深遠(yuǎn)。人工智能很可能是我們文明創(chuàng)造的最重要、最好的東西之一,與電力和微芯片相媲美,甚至可能超越它們。
人工智能的發(fā)展和普及遠(yuǎn)非我們應(yīng)該害怕的風(fēng)險是我們對自己、對我們的子孫和對我們的未來的一種道德責(zé)任。
我們應(yīng)該在人工智能的幫助下生活在一個更美好的世界中,而現(xiàn)在我們可以做到。
那么,為什么會引發(fā)恐慌呢?
與上述積極的觀點(diǎn)形成對比,當(dāng)前關(guān)于人工智能的公眾討論,充斥著歇斯底里的恐懼和偏執(zhí)。
我們聽到的說法是,人工智能將以各種方式殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,導(dǎo)致嚴(yán)重的不平等,并使壞人做出可怕的事情。
從近乎烏托邦到可怕的反烏托邦,是什么導(dǎo)致了潛在結(jié)果之間的這種背離呢?
歷史上,每一項重要的新技術(shù),從電燈到汽車、無線電到互聯(lián)網(wǎng),都引發(fā)了道德恐慌一種社會傳染,使人們相信新技術(shù)將毀滅世界,或者毀滅社會,或者兩者都?xì)绲!侗^主義者檔案館》的好心人們,在幾十年間記錄了這些技術(shù)驅(qū)動的道德恐慌;他們的記錄讓歷史的俗套變得栩栩如生。事實(shí)證明,這次恐慌對于人工智能來說都不是第一次。
現(xiàn)在,當(dāng)然有許多新技術(shù)導(dǎo)致了不良結(jié)果這些技術(shù)在其他方面對我們的福祉產(chǎn)生了巨大的好處。因此,并不是說道德恐慌的存在意味著沒有什么可擔(dān)心的。
但是,道德恐慌本質(zhì)上是非理性的它將可能是一個合理的關(guān)切夸大成一種歇斯底里的程度,具有諷刺意味的是,這使得我們更難以面對實(shí)際上的嚴(yán)重問題。
目前我們對人工智能確實(shí)存在著一種全面的道德恐慌。
這種道德恐慌已經(jīng)被各種行動者利用為推動力量,要求政策行動對人工智能進(jìn)行新的限制、規(guī)定和法律。這些行動者對人工智能的危險發(fā)表極端夸張的公開聲明,滋養(yǎng)并進(jìn)一步激化道德恐慌,他們都把自己呈現(xiàn)為無私的公眾利益捍衛(wèi)者。
但他們真的是嗎?
他們是對還是錯?
人工智能的斗士與私酒販子
經(jīng)濟(jì)學(xué)家觀察到這類改革運(yùn)動中的一種長期模式。這些運(yùn)動中的行動者分為兩類“浸禮派”和“私酒販子”這是根據(jù)20世紀(jì)20年代美國禁酒令的歷史例子而得出的:
“浸禮派”是真正的社會改革者,他們真誠地認(rèn)為不管是否理性需要制定新的限制、規(guī)定和法律來防止社會災(zāi)難。對于禁酒令來說,這些行動者通常是虔誠的基督徒,他們認(rèn)為酒精正在破壞社會的道德基矗對于人工智能風(fēng)險來說,這些行動者是真正相信人工智能具備一種或多種存在性風(fēng)險的人如果你把他們綁到測謊儀上,他們也是真心相信的。
“私酒販子”是自利的機(jī)會主義者,他們在新的限制、規(guī)定和法律的實(shí)施中能夠獲得經(jīng)濟(jì)利益,并使自己免受競爭對手的侵害。對于禁酒令來說,這些人是走私者,他們靠非法銷售酒精賺取了巨額財富,因?yàn)楹戏ǖ木凭N售被禁止了。對于人工智能風(fēng)險來說,這些人是那些CEO們,如果建立起一系列由政府認(rèn)可的人工智能供應(yīng)商組成的壟斷組織,免受新創(chuàng)企業(yè)和開源運(yùn)動的競爭,那么他們將獲得更多利潤這相當(dāng)于軟件版本的銀行“大而不倒”。
玩世者會指出,一些所謂的浸禮派實(shí)際上也是私酒販子特指那些由大學(xué)、智庫、活動組織和媒體機(jī)構(gòu)支付薪水或獲得資助來攻擊人工智能的人。如果你的薪水或者獲得的資助是為了制造人工智能恐慌……那么你可能是個私酒販子。
私酒販子的問題在于他們總是獲勝。浸禮派是天真的意識形態(tài)者,而私酒販子是玩世的操作者,因此這類改革運(yùn)動的結(jié)果往往是私酒販子得到了他們想要的監(jiān)管控制、免受競爭的保護(hù)、壟斷組織的形成而浸禮派則困惑地思考他們?yōu)樯鐣纳频呐我宰咤e了路。
我們剛剛經(jīng)歷了一個驚天的例子2008年全球金融危機(jī)后的銀行改革。浸禮派告訴我們,我們需要新的法律和規(guī)定來拆分“大而不倒”的銀行,以防止類似危機(jī)再次發(fā)生。因此,國會通過了2010年的多德-弗蘭克法案,這被宣傳為滿足浸禮派目標(biāo)的法案,實(shí)際上被大銀行們所利用。結(jié)果是,2008年被認(rèn)為“大而不倒”的銀行現(xiàn)在規(guī)模更大了。
因此,實(shí)際上,即使浸禮派是真誠的甚至浸禮派是正確的他們也被善于操縱和貪婪的私酒販子利用以謀取自己的利益。
而這正是現(xiàn)在推動人工智能監(jiān)管的情況。
然而,僅僅識別行動者并對他們的動機(jī)進(jìn)行指責(zé)是不夠的。我們應(yīng)該從事實(shí)出發(fā),辨析浸禮派和私酒販子的論點(diǎn)。
AI風(fēng)險#1:人工智能會殺死我們所有人嗎?
第一個也是最早的AI末日論風(fēng)險,是人工智能將決定直接殺死人類。
對我們自己創(chuàng)造的技術(shù)會崛起并摧毀我們的恐懼,根植于我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼普羅米修斯給人類帶來了毀滅性的火焰力量,也可以說是一般意義上的技術(shù)(“技藝”),為此他被眾神永遠(yuǎn)地折磨。后來,瑪麗雪萊在她的小說《弗蘭肯斯坦,或者現(xiàn)代普羅米修斯》中為我們現(xiàn)代人提供了我們自己的這個神話版本,我們開發(fā)了永生的技術(shù),但它卻崛起并尋求摧毀我們。當(dāng)然,在AI恐慌的報紙報道中,幾乎都會包含來自詹姆斯卡梅隆的《終結(jié)者》電影中一個閃閃發(fā)光、有著紅色眼睛的殺人機(jī)器人的圖像。
這個神話學(xué)假定了進(jìn)化目標(biāo),激發(fā)我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險畢竟,火焰確實(shí)可以用來焚燒整個城市。但正如火焰也是現(xiàn)代文明的基石,用來使我們在一個寒冷而敵意的世界中保持溫暖和安全一樣,這種神話學(xué)忽視了大多數(shù)新技術(shù)的更大好處,實(shí)際上激起了破壞性的情緒,而不是理性的分析。僅僅因?yàn)榍艾F(xiàn)代的人們恐慌,并不意味著我們也必須如此恐慌;我們可以運(yùn)用理性。
我認(rèn)為,人工智能將決定直接殺死人類的觀念,從根本上就是一個錯誤。人工智能不是一個通過數(shù)十億年的進(jìn)化而被預(yù)設(shè)為參與適者生存之戰(zhàn)的生命存在,就像動物和我們一樣。它是數(shù)學(xué)-代碼-計算機(jī),由人構(gòu)建、人擁有、人使用、人控制。認(rèn)為人工智能最終會擁有自己的意識,并決定有動機(jī)來試圖殺死我們,是一種基于迷信的草率解釋。
簡而言之,人工智能沒有欲望,沒有目標(biāo),不想殺死你,因?yàn)樗皇腔畹摹?/strong>人工智能是一臺機(jī)器,它不會變得活過來,就像你的烤面包機(jī)一樣。
現(xiàn)在,顯然有一些對殺手級人工智能深信不疑的人浸禮派教徒他們因其可怕的警告而突然獲得了大量媒體報道,其中一些人聲稱已經(jīng)研究了這個課題幾十年,并表示他們現(xiàn)在對所了解的事情感到非常害怕。其中一些真正相信者甚至是技術(shù)的創(chuàng)新者。這些人主張對人工智能實(shí)施各種奇怪和極端的限制,從禁止人工智能的發(fā)展,一直到對數(shù)據(jù)中心進(jìn)行軍事空襲和核戰(zhàn)爭。他們認(rèn)為,因?yàn)橄裎疫@樣的人無法排除人工智能未來可能帶來的災(zāi)難性后果,我們必須采取一種預(yù)防性措施,可能必要時要訴諸暴力和死亡,以防止?jié)撛诘纳骘L(fēng)險。
我的回應(yīng)是,他們的立場是非科學(xué)的有哪些假設(shè)是可驗(yàn)證的?什么會證偽這個假設(shè)?我們?nèi)绾沃篮螘r進(jìn)入危險區(qū)域?除了“你不能證明它不會發(fā)生!”之外,這些問題基本上沒有得到回答。事實(shí)上,這些浸禮派的立場是如此非科學(xué)和極端關(guān)于數(shù)學(xué)和代碼的一個陰謀論并且已經(jīng)呼吁使用實(shí)際暴力,我將做一件通常不會做的事情,并質(zhì)疑他們的動機(jī)。
具體來說,我認(rèn)為有三件事正在發(fā)生:
首先,回想一下約翰馮諾伊曼是如何回應(yīng)羅伯特奧本海默對自己參與制造核武器的憂慮的這些核武器幫助結(jié)束了第二次世界大戰(zhàn)并防止了第三次世界大戰(zhàn)他說:“有些人承認(rèn)罪惡是為了罪行帶來的認(rèn)可。”為不顯得過于自夸,還有什么更好的表演能用來聲稱自己的功勞和其工作的重要性?這解釋了那些浸禮派成員的言行不一,實(shí)際上他們正在建造和資助人工智能觀其行,而不是聽其言。(杜魯門總統(tǒng)在與奧本海默會面后更加嚴(yán)厲:“不要再讓那個哭哭啼啼的人進(jìn)來了。”)
第二,一些浸禮派成員實(shí)際上是走私者。有這么一整套班子,“人工智能安全專家”、“人工智能倫理學(xué)家”、“人工智能風(fēng)險研究員”,他們?yōu)榱藪赍X而成為末日論者,應(yīng)該當(dāng)心他們的聲明。
第三,加利福尼亞州因我們眾多的邪教而聞名,從EST到人民圣殿教,從天堂之門到曼森家族。其中許多,盡管不是全部,邪教是無害的,甚至可能幫助那些疏離人員在其中找到家的感覺。但某些邪教組織很難保持界限,最終可能導(dǎo)致暴力和死亡。
而對于舊金山灣區(qū)的每個人來說顯而易見、但可能在外界不為人知的事實(shí)是,“人工智能風(fēng)險”已經(jīng)演變成了一個邪教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對話的光芒之中。這個邪教不僅吸引了一些邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐贈者包括直到最近的山姆班克曼-弗里德。它發(fā)展出了一整套邪教行為和信仰。
這個邪教就是為什么有一群聽起來如此極端的人工智能風(fēng)險末日論者并不是因?yàn)樗麄儗?shí)際上擁秘密知識,使他們的極端主義合乎邏輯,而是因?yàn)樗麄儼炎约杭拥搅藰O點(diǎn),而且真的是……極端至極。
事實(shí)證明,這種類型的邪教并不新鮮在西方有著悠久的末世主義傳統(tǒng),這導(dǎo)致了末日邪教。人工智能風(fēng)險邪教具備末日邪教的所有特征。引用維基百科,我再加上一些內(nèi)容:
“末世主義是一個群體或一個運(yùn)動(人工智能風(fēng)險末日論者)相信社會即將發(fā)生根本性轉(zhuǎn)變(人工智能的到來),之后一切都將改變(人工智能烏托邦、反烏托邦或世界末日)。只有重大事件(對人工智能實(shí)施禁令,對數(shù)據(jù)中心進(jìn)行軍事空襲,對無監(jiān)管人工智能進(jìn)行核打擊)被視為能夠改變世界(防止人工智能),而這種變革被預(yù)計將由一群虔誠和專注的人帶來或者幸存下來。在大多數(shù)末世主義情景中,即將到來的災(zāi)難或戰(zhàn)斗(人工智能的世界末日或預(yù)防)之后將會是一個新的、純凈的世界(人工智能禁令),在這個世界中信徒們將會受到獎勵(或至少被認(rèn)定一直是正確的)。”
別誤會我的意思,邪教聽起來很有趣,他們的書面材料通常很有創(chuàng)意和吸引力,他們的成員在晚宴和電視上很有吸引力。但他們的極端信仰不應(yīng)決定法律和社會的未來顯然不應(yīng)該。
人工智能風(fēng)險 #2: 人工智能會毀滅我們的社會嗎?
第二個被廣泛討論的人工智能風(fēng)險是,人工智能會毀滅我們的社會,通過產(chǎn)生的輸出將會對人類造成深遠(yuǎn)的傷害,即使我們并非被直接殺害,在這種末日論者的聲稱中,也會造成“巨大的傷害”。
簡而言之:如果殺人機(jī)器人沒有消滅我們,仇恨言論和錯誤信息就會。
這是一個相對較新的末日論者的擔(dān)憂,從我上面描述的“人工智能風(fēng)險”運(yùn)動中分化出來,并在一定程度上取代了它。事實(shí)上,人工智能風(fēng)險的術(shù)語最近從“人工智能安全”那些擔(dān)心人工智能會直接殺害我們的人所使用的術(shù)語變?yōu)?ldquo;人工智能對齊”那些擔(dān)心社會“傷害”的人所使用的術(shù)語。原來的人工智能安全人士對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何重新收回來他們現(xiàn)在主張將實(shí)際的人工智能風(fēng)險主題改名為“不讓每個人都被殺死的人工智能主義”(AI notkilleveryoneism),雖然這個提議尚未得到廣泛接受,但至少是明確的。
聲稱的人工智能社會風(fēng)險,所用的術(shù)語暗示了它的本質(zhì),“人工智能對齊”。對齊于什么?人類價值觀。哪些人類價值觀?啊,這就是問題的棘手之處。
恰好,我親眼目睹了一個類似的情況社交媒體的“信任與安全”戰(zhàn)爭。如今顯而易見,社交媒體服務(wù)長期以來一直承受著政府和活動家的巨大壓力,要求禁止、限制、審查和壓制各種內(nèi)容。而對于“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯誤信息”的關(guān)注,直接從社交媒體背景被轉(zhuǎn)移到了“人工智能對齊”的新領(lǐng)域。
我從社交媒體戰(zhàn)爭中學(xué)到的重要觀點(diǎn)是:
一方面,沒有絕對的言論自由立常首先,每個國家,包括美國在內(nèi),都會將至少一些內(nèi)容視為非法。其次,有一些內(nèi)容,比如兒童色情和煽動現(xiàn)實(shí)世界暴力,幾乎被所有社會普遍認(rèn)為是不可接受的無論是否合法。因此,任何促進(jìn)或生成內(nèi)容(言論)的技術(shù)平臺都會有一定的限制。
另一方面,(言論自由)逐步下滑不是謬誤,而是不可避免的。一旦建立了對即使極其糟糕的內(nèi)容進(jìn)行限制的框架,比如對仇恨言論,特定的傷害性詞語,或?qū)﹀e誤信息,明顯虛假的聲明(比如“教皇已經(jīng)去世”)的限制,各種政府機(jī)構(gòu)、活動家壓力團(tuán)體和非政府實(shí)體將紛紛行動起來,要求對任何他們認(rèn)為對社會和/或個人偏好構(gòu)成威脅的言論進(jìn)行越來越大范圍的審查和壓制,甚至以公然犯罪的方式進(jìn)行。這一循環(huán)在實(shí)踐中似乎可以永無止境地運(yùn)行下去,并得到了我們精英權(quán)力結(jié)構(gòu)中到處部署的極權(quán)監(jiān)督員的熱烈支持。這種情況在社交媒體上已經(jīng)持續(xù)了十年,除了某些例外情況外,這種情況仍在不斷加劇。
由于“信任與安全”和“人工智能對齊”的支持者抱團(tuán)為全球人口中非常狹窄的一列,是典型的美國沿海精英,其中包括許多在科技行業(yè)工作和撰寫相關(guān)文章的人,我的許多讀者可能會準(zhǔn)備主張需要對人工智能輸出進(jìn)行大幅限制,以避免破壞社會。我現(xiàn)在不會試圖說服你們改變這個觀點(diǎn),我只是簡單地陳述這是需求的本質(zhì),大多數(shù)世界上的人們既不同意你們的意識形態(tài),也不希望看到你們獲勝。
對人工智能被允許說/生成什么進(jìn)行爭論,將比對社交媒體審查的爭論更加重要。人工智能極有可能成為世界上一切事物的控制層。它被允許如何運(yùn)作將可能比任何其他事情都更重要。你應(yīng)該意識到,一個孤立的黨派社會工程師小圈子正試圖在這個領(lǐng)域決定目前的局面,而他們用陳詞濫調(diào)聲稱自己是在保護(hù)你們。
AI風(fēng)險#3:人工智能會奪走我們所有的工作嗎?
對由于機(jī)械化、自動化、計算機(jī)化或人工智能而失去工作的擔(dān)憂,自從機(jī)械織布機(jī)等機(jī)械設(shè)備首次出現(xiàn)以來,已經(jīng)是數(shù)百年來一直存在的恐慌。盡管歷史上每一項新的重大技術(shù)都導(dǎo)致了更多的工作機(jī)會和更高的工資,但每一波這種恐慌都伴隨著“這一次不同”的說法這一次終于會發(fā)生,這一次的技術(shù)將最終給人類勞動力以致命一擊。然而,這從未發(fā)生過。
在最近的過去,我們經(jīng)歷了兩個這樣的技術(shù)驅(qū)動的失業(yè)恐慌周期2000年代的外包恐慌和2010年代的自動化恐慌。盡管在這兩個十年中,許多意見領(lǐng)袖、專家大咖甚至技術(shù)行業(yè)高管們一再強(qiáng)調(diào)大規(guī)模失業(yè)即將來臨,但到2019年底即COVID爆發(fā)前世界上的就業(yè)崗位和工資水平創(chuàng)歷史新高。
然而,這個錯誤的觀念卻不會消失。
果不其然,這種觀念又回來了。
這一次,我們終于擁有了將奪走所有工作并使人類工人變得多余的技術(shù)真正的人工智能。這一次歷史不會重演,人工智能將導(dǎo)致大規(guī)模失業(yè),而不是迅速的經(jīng)濟(jì)增長、就業(yè)增長和工資增長,對嗎?
不,不會發(fā)生這種情況事實(shí)上,如果允許人工智能在整個經(jīng)濟(jì)中得以發(fā)展和普及,它可能會引發(fā)有史以來最顯著和持續(xù)的經(jīng)濟(jì)繁榮,伴隨著創(chuàng)紀(jì)錄的就業(yè)和工資增長與擔(dān)憂恰恰相反。原因如下:
自動化會殺死工作的末日論者們一直犯的核心錯誤是“勞動總量謬誤”(Lump OfLabor Fallacy)。這種謬誤是錯誤地認(rèn)為經(jīng)濟(jì)中在任何特定時間都存在一定數(shù)量的勞動力,要么由機(jī)器完成,要么由人類完成如果由機(jī)器完成,就沒有工作可供人們做了。
勞動總量謬誤從直覺上是合理的,但直覺在這里是錯誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時,我們實(shí)現(xiàn)了生產(chǎn)力增長通過減少投入來增加產(chǎn)出。結(jié)果是商品和服務(wù)的價格降低。隨著商品和服務(wù)的價格下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用減少,這意味著我們現(xiàn)在有了額外的消費(fèi)能力,可以用來購買其他物品。這增加了經(jīng)濟(jì)中的需求,推動了新的生產(chǎn)活動包括新產(chǎn)品和新產(chǎn)業(yè)從而為之前被機(jī)器取代的人們創(chuàng)造了新的工作崗位。結(jié)果是一個更大的經(jīng)濟(jì)體,更高的物質(zhì)繁榮,更多的產(chǎn)業(yè),更多的產(chǎn)品和更多的就業(yè)機(jī)會。
但好消息并不止于此。我們還會獲得更高的工資。這是因?yàn)樵趥體工人的層面上,市場根據(jù)工人的邊際生產(chǎn)力來確定報酬。與傳統(tǒng)企業(yè)相比,科技融入的企業(yè)中的員工將更加高效。雇主要么會支付更高的薪水給這位因?yàn)楦咝Ф憩F(xiàn)出色的工人,要么其他雇主會出于純粹的自利而支付更高的薪水。結(jié)果是,技術(shù)在一個行業(yè)中的引入,通常不僅增加了該行業(yè)的就業(yè)崗位數(shù)量,還提高了工資水平。
總結(jié)起來,技術(shù)使人們能夠提高生產(chǎn)效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價格下降,工資上漲。這反過來推動了經(jīng)濟(jì)增長和就業(yè)增長,并激勵創(chuàng)造新的就業(yè)和新的產(chǎn)業(yè)。如果市場經(jīng)濟(jì)能夠正常運(yùn)行,技術(shù)能夠自由引入,這將是一個永無止境的上升循環(huán)。正如弗里德曼所觀察到的,“人類的欲望和需求是無窮無盡的”我們總是想要比我們擁有的更多。科技融入的市場經(jīng)濟(jì),使我們接近實(shí)現(xiàn)每個人可能想要的一切,但永遠(yuǎn)無法完全實(shí)現(xiàn)。這就是為什么技術(shù)不會摧毀工作崗位,也永遠(yuǎn)不會。
對于那些從未接觸過這些觀點(diǎn)的人來說,這些想法可能令人震驚,你可能需要一些時間來理解它們。但我發(fā)誓我沒有編造它們事實(shí)上,你可以在標(biāo)準(zhǔn)經(jīng)濟(jì)學(xué)教科書中閱讀到相關(guān)內(nèi)容。我推薦讀一下亨利哈茲里特(Henry Hazlitt)的《經(jīng)濟(jì)學(xué)一課》中的“機(jī)器的詛咒”一章,以及弗雷德里克巴斯夏(FredericBastiat)的《燭光工人的請愿書》,其中諷刺性地描述了他們提出了封殺太陽的請求,因?yàn)檫@對照明行業(yè)不公平,可以為我們這個時代改編一下。
但你現(xiàn)在可能會想,“這一次不同。這一次,有了人工智能,我們擁有可以取代所有人類勞動力的技術(shù)。”
但是,根據(jù)我上面所描述的原理,想象一下如果真的所有現(xiàn)有的人類勞動力都被機(jī)器取代會意味著什么。
這意味著經(jīng)濟(jì)生產(chǎn)力增長的起飛速度將是絕對驚人的,遠(yuǎn)遠(yuǎn)超過任何歷史先例,F(xiàn)有商品和服務(wù)的價格將全面降至幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的購買力將大幅提升。經(jīng)濟(jì)中的新需求將激增。企業(yè)家將創(chuàng)建令人眼花繚亂的新產(chǎn)業(yè)、新產(chǎn)品和新服務(wù),并盡可能快地雇傭盡可能多的人工智能和員工來滿足所有的新需求。
假設(shè)人工智能再次取代了這些勞動力?這個循環(huán)將重復(fù),推動消費(fèi)者福利、經(jīng)濟(jì)增長以及工作崗位和工資增長達(dá)到更高水平。這將是直線上升的螺旋,達(dá)到了亞當(dāng)斯密和卡爾馬克思從未敢想象的物質(zhì)烏托邦。
我們應(yīng)該感到幸運(yùn)。
AI風(fēng)險 #4: 人工智能會導(dǎo)致破壞性的不公平嗎?
對于AI奪取工作的擔(dān)憂直接引出了下一個所聲稱的AI風(fēng)險,那就是,好吧,假設(shè)AI確實(shí)奪走了所有的工作,不管是出于好還是出于壞。那么,作為一種結(jié)果,難道這不會導(dǎo)致巨大而且無法克服的財富不平等嗎?AI的所有者將獲得所有的經(jīng)濟(jì)回報,而普通人一無所獲?
這個理論的缺陷在于,作為一種技術(shù)的所有者,將其私藏并不符合自己的利益,事實(shí)上恰恰相反,你應(yīng)該將其賣給盡可能多的客戶。世界上最大的市場是全世界,80億人口。因此,事實(shí)上,每一項新技術(shù)即使起初只銷售給高薪大公司或富有的消費(fèi)者都會迅速擴(kuò)散,直至落入盡可能大的大眾市場的手中,最終覆蓋全球的每一個人。
其中的經(jīng)典例子就是埃隆馬斯克在2006年為特斯拉制定的所謂“秘密計劃”他自然而然地公開發(fā)布了這個計劃:
第一步,建造[昂貴的]跑車
第二步,用那些錢建造一輛經(jīng)濟(jì)實(shí)惠的車
第三步,用那些錢建造一輛更加經(jīng)濟(jì)實(shí)惠的車
…這正是他所做的,結(jié)果成為了世界上最富有的人。
最后一點(diǎn)至關(guān)重要。如果埃隆今天只向富人銷售汽車,他會更富有嗎?不會。如果他只為自己制造汽車,他會比現(xiàn)在更富有嗎?當(dāng)然不會。不,他通過向盡可能龐大的市場全世界銷售汽車來最大化自己的利潤。
簡而言之,每個人都能得到這個東西正如我們在過去所見,不僅包括汽車、電力、無線電、計算機(jī)、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。這些技術(shù)的制造商極其積極地降低價格,直至全球所有人都能夠負(fù)擔(dān)得起。這正是AI領(lǐng)域已經(jīng)發(fā)生的情況這就是為什么你今天可以以低廉甚至免費(fèi)的價格使用最先進(jìn)的生成型AI,例如微軟的必應(yīng)和谷歌的Bard而且這種情況將繼續(xù)發(fā)生。這并不是因?yàn)檫@些供應(yīng)商愚蠢或慷慨,而是因?yàn)樗麄冐澙匪麄兿M畲蠡袌鲆?guī)模,以最大化他們的利潤。
因此,發(fā)生的情況與技術(shù)推動財富集中化的理論相反技術(shù)的最終用戶,包括全球所有人,將獲得權(quán)力,并獲得大部分創(chuàng)造的價值。與以往的技術(shù)一樣,打造AI的公司假設(shè)它們必須在自由市場中運(yùn)作將競相努力實(shí)現(xiàn)這一目標(biāo)。
這并不是說不平等不是我們社會面臨的問題。它是問題,只是它不是由技術(shù)驅(qū)動的,而是相反的情況,由于經(jīng)濟(jì)中那些最不愿采用新技術(shù)的部門,以及最多的政府干預(yù),導(dǎo)致了不平等的加劇,特別是住房、教育和醫(yī)療保健領(lǐng)域。AI和不平等的實(shí)際風(fēng)險不在于AI會導(dǎo)致更多的不平等,而是我們不允許使用AI來減少不平等。
AI風(fēng)險 #5: AI會讓壞人做壞事嗎?
到目前為止,我已經(jīng)解釋了為什么五個最常提出的AI風(fēng)險中有四個實(shí)際上并不存在AI不會活過來殺死我們,AI不會毀壞我們的社會,AI不會導(dǎo)致大規(guī)模失業(yè),AI不會引發(fā)破壞性的不平等增加。但現(xiàn)在讓我們來討論第五個,這也是我實(shí)際上同意的一個觀點(diǎn):AI會讓壞人更容易做壞事。
從某種意義上說,這是一個必然論。技術(shù)是一種工具。從火和石頭開始,工具可以用來做好事烹飪食物和建造房屋也可以用來做壞事燒傷人和擊打人。任何技術(shù)都可以用于善良或邪惡。沒錯。AI將使罪犯、恐怖分子和敵對政府更容易做壞事,這是毫無疑問的。
這導(dǎo)致一些人提出,好吧,既然如此,讓我們在這種事情發(fā)生之前禁止AI,以免冒險。不幸的是,AI不是一種難以獲取的神秘物質(zhì),如钚。恰恰相反,它是世界上最容易獲取的材料數(shù)學(xué)和代碼。
AI的貓顯然已經(jīng)跑出了袋子。你可以通過成千上萬個免費(fèi)的在線課程、書籍、論文和視頻學(xué)習(xí)如何構(gòu)建AI,并且每天都有優(yōu)秀的開源實(shí)現(xiàn)不斷涌現(xiàn)。AI就像空氣它將無處不在。要抑制它所需的極端權(quán)力壓迫水平將如此嚴(yán)厲一個監(jiān)視和控制所有計算機(jī)的世界政府?穿著靴子的黑衣直升機(jī)中的武裝人員搶走了獨(dú)立的GPU?以至于我們將不再擁有一個需要保護(hù)的社會。
因此,我們有兩種非常簡單的方法來應(yīng)對壞人利用AI做壞事的風(fēng)險,而這正是我們應(yīng)該關(guān)注的。
首先,我們已經(jīng)有法律來將大多數(shù)人可能利用AI做壞事的行為定為犯罪。侵入五角大樓的計算機(jī)?那是犯罪。從銀行盜竊錢財?那是犯罪。制造生物武器?那是犯罪。實(shí)施恐怖行動?那是犯罪。我們只需專注于在我們可以的時候防止這些犯罪行為,無法阻止時進(jìn)行起訴。我們甚至不需要新的法律我不知道是否有哪個已經(jīng)發(fā)現(xiàn)實(shí)際作惡的AI用途沒有被宣布為非法。如果發(fā)現(xiàn)了新的作惡的用途,我們就禁止該用途。證畢。
但你會注意到我在其中提到了一件事我說我們應(yīng)該首先專注于在壞事發(fā)生之前預(yù)防AI協(xié)助犯罪那樣的預(yù)防意味著禁止AI嗎?嗯,還有另一種方法可以防止這樣的行為,那就是將AI作為一種防御工具。在作惡的壞人手中,AI是危險的;同樣,在行善的好人手中,AI會成為強(qiáng)有力的工具特別是那些工作是防止壞事發(fā)生的好人。
例如,如果你擔(dān)心AI生成虛假人物和虛假視頻,答案是建立新的系統(tǒng),人們可以通過加密簽名驗(yàn)證自己和真實(shí)內(nèi)容。用數(shù)字技術(shù)創(chuàng)造和改變內(nèi)容,其真實(shí)性和虛假性在AI之前就已經(jīng)存在;答案不是禁止文字處理軟件和Photoshop或者AI而是利用技術(shù)構(gòu)建一個真正解決問題的系統(tǒng)。
因此,其次,讓我們大力倡導(dǎo)將AI用于善良、合法、防御性的目的。讓我們將AI用于網(wǎng)絡(luò)防御、生物防御、追蹤恐怖分子,以及我們?yōu)榱吮Wo(hù)自己、社區(qū)和國家所做的一切其他事情。
當(dāng)然,政府內(nèi)外已經(jīng)有許多聰明人正在做這樣的工作但如果我們將當(dāng)前專注于禁止AI的徒勞努力和智慧力量應(yīng)用于使用AI來防止壞人做壞事,我相信充滿AI的世界將比我們今天生活的世界更加安全。
采取什么行動
我提出一個簡單的計劃:
AI大廠應(yīng)該被允許盡快、積極地構(gòu)建AI,但不應(yīng)該獲得監(jiān)管控制;不應(yīng)該建立一個壟斷集團(tuán),它打著錯誤的AI風(fēng)險旗號、與市場競爭隔離并受到政府保護(hù);這些大廠是當(dāng)代資本主義的瑰寶,應(yīng)該最大程度地發(fā)揮這些大廠的驚人能力,獲取技術(shù)和社會的回報。
初創(chuàng)AI公司應(yīng)該被允許盡快、積極地構(gòu)建AI。它們既不應(yīng)面對大公司獲得的政府保護(hù),也不應(yīng)獲得政府援助。它們應(yīng)該被允許自由競爭。如果初創(chuàng)公司不成功,它們在市場上的存在也會持續(xù)激勵大公司發(fā)揮最佳水平我們的經(jīng)濟(jì)和社會無論如何都是贏家。
開源AI應(yīng)該被允許自由傳播和與大型AI公司和初創(chuàng)公司競爭。對開源軟件不應(yīng)設(shè)定任何監(jiān)管障礙。即使開源軟件沒有戰(zhàn)勝那些公司,對于那些學(xué)習(xí)掌握AI技術(shù)的人們來說也是好事。開源AI廣泛的可用性有利于全世界各地的人們學(xué)習(xí)構(gòu)建和使用AI,參與其中才能確保未來從AI中受益,而無論他們是誰或者他們有多少錢。
為了抵消壞人利用AI做壞事的風(fēng)險,政府與私營部門合作,應(yīng)該積極參與到每個潛在風(fēng)險領(lǐng)域,利用AI來最大限度地提高社會的防御能力。這不應(yīng)僅限于AI風(fēng)險,還應(yīng)包括更一般的問題,如營養(yǎng)不良、疾病和氣候問題。AI可以是解決問題的一種極為強(qiáng)大的工具,我們應(yīng)該充分利用它。
這就是我們?nèi)绾卫肁I拯救世界。
現(xiàn)在是建設(shè)的時候了。
https://a16z.com/2023/06/06/ai-will-save-the-world/