作者丨程瀟熠
編輯丨葉錦言
出品丨深網(wǎng)科技新聞小滿工作室
觀點提煉:
1. 蘋果iPhone16,8G內(nèi)存能放的模型大小有限,會制約Apple Intelligence的表現(xiàn)。更適配蘋果端側(cè)大模型的硬件或?qū)⑹莍Phone 18。
2.端側(cè)大模型優(yōu)勢:隱私保護,數(shù)據(jù)存在終端設(shè)備;可離線,出國沒網(wǎng)也能實時翻譯;低延時,自動駕駛執(zhí)行即時指令。
3. 大模型時代的智能翻譯進化:以前英語翻譯到俄語需要一個模型,俄語翻譯到漢語又需要一個模型,排列組合之下需要非常多小模型。大語言模型可以用一個模型解決所有的問題,俚語翻譯也不是問題。
4.未來的硬件會像現(xiàn)在的大模型軟件一樣,分成兩種類型:一種是Copilot,比如手機、智能眼鏡等;另一種叫agent,比如小機器人等,未來我們的生活里會有很多的Agent類型的硬件。
5. 現(xiàn)在的手機界面,很多都是通過安卓開發(fā)工程師寫出來的APP固定的軟件界面,未來大模型有機會接管這個輸出界面。未來的千人千面,可能每個人看到的終端界面都不同。
6.云端模型,中美差距還在1到2年,主要體現(xiàn)在如今國內(nèi)的所有云端大模型,還沒有誰顯著的達到或者超過GPT-4。
7.GPT-o1其實是把Agent的能力內(nèi)化了,過去一年國內(nèi)很多公司在Agent上做了不少工作,追趕GPT-o1沒那么難,難的是追趕GPT-4、GPT-4o、GPT-5。
8. 人類大腦能耗只有15瓦到25瓦,人類大腦的稀疏化特性對節(jié)省能耗非常有幫助,大模型也存在稀疏化特性,可以不斷訓(xùn)練增加知識密度。
9.芯片制程的盡頭是量子力學(xué),大模型的知識密度的盡頭是信息論,兩者都有極限。
10. 選擇開源還是選擇閉源,是每個公司的商業(yè)判斷,這沒有對錯,它是一種商業(yè)模式。
11. 未來人更重要的是想法,是構(gòu)思,是打動別人的能力。人完全可以通過AI去放大自己的想法,也就是杠桿效應(yīng)。
12.AI可能會讓很多白領(lǐng)的工作開始慢慢地平臺化。未來公司形態(tài)要么只有一個人,要么會出現(xiàn)越來越大的平臺整合所有勞動力資源。
13. 信息繭房一方面是人的個人選擇,另一方面也是商業(yè)順應(yīng)人的選擇,利用人性下墜的力量去實現(xiàn)商業(yè)目的。
9月24日晚,科技新聞小滿工作室聯(lián)合職場社區(qū)和社交平臺脈脈共同打造的首檔AI訪談直播節(jié)目《Fan談大模型》首期播出,國內(nèi)最早從事大語言模型的團隊之一、頭部大模型初創(chuàng)公司面壁智能CEO李大海,與節(jié)目主理人、脈脈創(chuàng)始人兼CEO林凡以及科技新聞《深網(wǎng)》作者程瀟熠一起深度探討AI 手機背后的端側(cè)大模型進展、未來交互變革可能性、被AI接管的未來,普通人該如何快速適應(yīng)等重要話題。
以下為直播實錄精簡版:
真正的第一臺AIiPhone 或許會是iPhone18
林凡:大家看到iPhone 16發(fā)布后其實有個疑問,AI手機和之前的這個智能手機,到底這兩個概念有什么差異?我們大家都知道引入了端側(cè)的能力,但從用戶的視角,到底他能感受到什么變化?
李大海:第一版的蘋果的這個所謂的AI手機還只是這個功能的一個初步呈現(xiàn),遠遠還沒有達到一個理想的狀態(tài)。
新一代的AI手機會跟新一代的智能汽車一樣,都會變成所謂的超級智能體。什么叫超級智能體呢?就是它會基于一個端側(cè)模型,把用戶所有的上下文都串在一起去更加懂用戶。這個其實是也是蘋果在WWDC和它的Apple Intelligence里面最想傳達出來的功能。
我們知道在移動互聯(lián)網(wǎng)時代,最大的一個范式是每一個APP它能夠去給用戶進行一個完整的用戶畫像的描述。比如美團會對每一個用戶在美團上喜歡什么吃什么,進行清晰的用戶畫像描述。未來有了AI手機后,我們可以通過端側(cè)模型把這些畫像存在手機上,不用傳到任何一個其他第三方的存儲系統(tǒng)里,這是端側(cè)模型帶來的非常大的變化。
林凡:我看網(wǎng)上也有很多人討論說, iphone 16只有8G的內(nèi)存,真的要跑好一個大模型,很可能要12G的內(nèi)存。那么今天來看端側(cè)大模型,在什么樣的硬件的情況下,要多長時間大概能初步達到我們剛才說的這樣的應(yīng)用場景。
李大海:蘋果新的iphone 16,它的內(nèi)存大小是8G的話,確實能夠放的模型的大小有限,這個會在一定程度上制約apple intelligence的表現(xiàn)。
我個人對于硬件發(fā)展是否能夠支撐住端側(cè)模型的應(yīng)用這件事情是比較樂觀的。端側(cè)的芯片通常由三個部分組成:CPU,NPU和GPU。其中NPU,過去幾年基本上是一個停滯發(fā)展的狀態(tài),因為過去幾年沒有發(fā)展出好的應(yīng)用,還用不上。
現(xiàn)在大模型出來以后,芯片廠商都非常興奮,發(fā)現(xiàn)說NPU有機會更快速地去發(fā)展。所以我看到的是很多芯片廠商都列了非常好的計劃,未來兩年應(yīng)該能夠出現(xiàn)很多NPU上算力很大,能夠去支撐好更大的端側(cè)模型的芯片,這是第一點。
第二點,終端上的情況比芯片要更復(fù)雜。終端上,我們要考慮的限制條件不只是算力的總量,還有能耗,還有內(nèi)存的帶寬,還有內(nèi)存的大小等等。這些因素組合在一起,它決定了一個設(shè)備能夠支撐一個什么樣的模型。
AI產(chǎn)品榜在七月份用我們的面壁小鋼炮的1.2B跟2.4B的模型,在現(xiàn)在市場上的主流機型上進行了評測。然后發(fā)現(xiàn)像蘋果手機,它在我們的1.2B的模型上跑的得分就很高,但2.4B得分比較低,得分指它的性能。
因為2.4B的模型需要占的內(nèi)存更大,但是蘋果手機相對于安卓手機來說,內(nèi)存的配置都會更校所以當(dāng)我們的模型的內(nèi)存要求高了以后,手機的內(nèi)存大小會變成一個顯著的瓶頸,影響到模型的發(fā)揮。
林凡:對,在我跟手機行業(yè)內(nèi)人士的交流中,他們也說蘋果的硬件大概會提前三年去做設(shè)計和規(guī)劃。他們整個團隊是去年才把要跑一個3B的大模型,大概需要的硬件和支持需求報給了硬件團隊。硬件團隊的答復(fù)就是那就等iPhone 18,再過兩年后,它的硬件才能支撐這個事情。
端側(cè)模型優(yōu)勢:隱私保護、可離線、低延時
林凡:大模型為什么要有一個端側(cè)大模型?不能用云端大模型解決所有的問題嗎?
李大海:自動駕駛里端側(cè)模型一定是很重要的。因為汽車開在120公里每小時的時候,我們很難容忍它有3秒、5秒的指令空白,這種非常即時性的指令一定要從端側(cè)出。
我們現(xiàn)在提到端側(cè)模型,它是整個終端的模型解決方案的一部分,很多時候需要端側(cè)模型和云端模型一起協(xié)同,就是端側(cè)模型跟云端模型他們其實擅長的工作不一樣,所以合在一起能夠更好解決問題。
具體展開來說,端側(cè)模型因為它能夠接觸到用戶所有的隱私數(shù)據(jù),所以懂用戶的這部分工作可以由端側(cè)模型來執(zhí)行。云端模型因為它全知全能,或者說我們其實是把云端模型按照全知全能的方向在發(fā)展,所以它其實它更懂世界,可以把它認(rèn)為是一個world model。那和世界相關(guān)的部分就可以交給云端模型來執(zhí)行。
簡單地講,當(dāng)用戶有一個需求的時候,我們可以由端側(cè)來把個人部分進行脫敏,再把世界相關(guān)交給云端來做,返回響應(yīng)云端加工后,端側(cè)再將符合用戶個性化的部分給到用戶,整個體驗最完整。
另外,用戶隱私安全這絕對是一個真實的需求,端側(cè)模型是能夠解決這些需求。
比如智能音箱的場景,我自己有個顧慮,如果它的數(shù)據(jù)是傳到某一個云端去處理的,我會擔(dān)心我家里面說的各種各樣的話都被它聽了去。但如果數(shù)據(jù)全留在終端,我知道它只在我家里的設(shè)備上,那我就會很放心。
現(xiàn)在還只是語音,大家可以想象如果未來我們在家里房間的各個角落,都放一些攝像頭,我也會擔(dān)心我在家里可能洗完澡后穿的很清涼出來到處逛的信號傳到云端。
還有一個差異是可靠性?煽啃赃@個差異在中國不是很明顯。我在反過來說,海外的網(wǎng)絡(luò)遠遠不如中國,感謝我們國家的政府基礎(chǔ)設(shè)施建設(shè),中國的網(wǎng)絡(luò)是全球覆蓋度最高的,我們在任何一個地方網(wǎng)絡(luò)基本是可用的。但是在海外,很多時候網(wǎng)絡(luò)是極其不可用的。
在那種情況下,一個終端你隨時可用的比起云端的來說會更安心,更可靠。一個可靠性,一個隱私保護,對于用戶來說是端側(cè)最重要的兩個優(yōu)勢。
林凡:我前段時間去埃及,埃及那邊說的是阿拉伯語。我語言不通就下了個谷歌的翻譯去那邊用,結(jié)果到了發(fā)現(xiàn)需要聯(lián)網(wǎng),有一次我在跟司機溝通的時候發(fā)現(xiàn)那個地方?jīng)]有網(wǎng)絡(luò),只能比手畫腳。
李大海:我們正在合作打造一個離線翻譯機,這個離線翻譯機里面會放我們的離線大語言模型,至少可以支持30種以上的海外不同語言的互相翻譯。這樣就不用擔(dān)心有沒有網(wǎng)的問題了,只需要擔(dān)心有沒有電。
AI光年:當(dāng)?shù)刭嫡Z也能翻譯出來嗎?
林凡:從我的理解來講,大模型解決像俚語這樣的問題,根本不是有挑戰(zhàn)的事情。
李大海:對,以前的技術(shù),三十種語言要做互相的翻譯,比如說英語翻譯到俄語需要一個模型,俄語翻譯到漢語又需要一個模型。這樣一個排列組合,就需要非常多的小模型。但是用了大語言模型以后,就可以用一個模型去解決所有的問題,這個是一個技術(shù)上很重要的跨越。
未來AI或直接接管手機界面
林凡:端側(cè)大模型它在交互上面可能會改變很多人對于手機,甚至對于汽車的一些使用的習(xí)慣。
好幾年前有一個場景讓我印象很深刻,我們家閨女打開電腦,對著電腦說:siri給我講個笑話吧。那個場景對我產(chǎn)生了非常大的沖擊。
我自己從互聯(lián)網(wǎng)時代開始用電腦,非常習(xí)慣文字鍵盤的輸入,鼠標(biāo)的輸入,然后到了移動時代,學(xué)會了用手機觸點的方式,但是我們很少用語音跟一個設(shè)備進行交互。我閨女那個交互的行為是非常自然的,她經(jīng)常也會說siri我要定一個八點的鬧鐘。
那次之后我一直在思考,為什么我們還不習(xí)慣用語音去跟設(shè)備去做交互。其實原因很簡單,今天設(shè)備的理解能力,在沒有端側(cè)大模型的時候還是比較弱的。很多時候你發(fā)的語音,它要不就是瞎響應(yīng),要么就是你沒叫它的時候突然冒出來了。但有了端側(cè)的能力以后,語音交互的準(zhǔn)確性會有一個巨大的提升。
第二個,我們跟美團交互的過程和我們?nèi)粘5母说慕换サ牧?xí)慣還是挺不一樣的。
比如,平時我可能會問,你喜歡吃什么?想吃什么?但你打開美團是有好多店自己要去挑。會不會以后手機突然說:中午了,你想吃什么?他不會把一堆可能的選項給你去挑,而是說:你最近好久沒吃火鍋了,我覺得你挺喜歡吃火鍋的,今天哪里有個火鍋店打折你有沒有興趣?這樣的交互過程。
李大海:超作為超級智能體,它應(yīng)該還能夠更進一步。
比如像剛才你提到那個場景,智能體他可能會提前感知,林凡平時喜歡在11點半左右考慮吃飯的問題。但是今天因為忙沒有考慮,那么到11點半他就會開始提醒你:林凡你平時在這個點兒已經(jīng)要開始點外賣了,或者說已經(jīng)開始考慮要邀請朋友去外面吃飯了,你要不要我?guī)湍闾崆鞍盐恢枚ㄒ幌,或者幫你把外賣給定了,他可以去做更加主動的關(guān)懷。這是未來汽車、手機可能可以做的事。
實際肯定要回到用戶畫像上,如果用戶不喜歡被打擾,這個手機不應(yīng)該自己出來添亂,它應(yīng)該像你的朋友一樣非常了解你,針對你的喜好脾性來去針對性的交互。
AI光年:這是不是可以解放決策精力?很多人有選擇困難癥,有智能體或許不用在穿哪件衣服這種瑣碎的事上浪費決策精力。
李大海:是的,一個是節(jié)省大家的決策成本,另外一個是可以放大大家的執(zhí)行效果。
比如編程,當(dāng)我有一個好想法的時候,我自己還要把它變成代碼,這個過程其實是很耗精力的,如果我們用AI來去做了以后,一方面能夠放大大家想法的杠桿效應(yīng),另一方面也能抹平不同的人在執(zhí)行上因為能力差異帶來的鴻溝。
林凡:端側(cè)大模型還有沒有別的一些典型的應(yīng)用的場景和可能性?
李大海:還挺多的,比如汽車,具身智能,智能家居,智能制造。首先端側(cè)模型其實是今年剛剛開始興起的一個新的一個技術(shù)趨是面壁在這里面出發(fā)的最早,走的最遠的,但是它仍然處于早期階段。很多場景,都還在打磨落地的過程中。
除此之外,還有一些新的強輸入的設(shè)備,這是端側(cè)很好的場景(與之相對的手機是強輸出的設(shè)備),像智能眼鏡還有耳機類似這樣的設(shè)備,它可以24小時開機,把使用者的所有數(shù)據(jù)都記錄下來,就像當(dāng)年在皇宮里專門記錄皇帝一言一行起居錄的小太監(jiān)。
這個設(shè)備不僅會記錄對話,虛擬環(huán)境里的上下文,還能把真實世界的上下文也記錄下來,那么這個設(shè)備就會具備非常大懂用戶的價值。
林凡:我們?nèi)粘I钪羞會有手勢以及各種各樣的表情,這些會不會成為新的跟設(shè)備交互的可能?
李大海:一定會的。我們現(xiàn)在在做的多模態(tài)模型,就是要往處理這些交互方式發(fā)展。
我認(rèn)為未來的硬件會像現(xiàn)在的大模型軟件一樣,分成兩種類型:一種類型我們就是我們說的copilot,一種類型叫agent。手機、眼鏡一定是一個copilot,但是未來我們生活里會有很多的agent類型的硬件。
比如說一個智能攝像頭配上了輪子以后,它就變成一個小機器人。它可以移動,它可以觀察你家里的情況,再根據(jù)觀察去執(zhí)行一些行動。當(dāng)agent類的這種設(shè)備越來越多的時候,它完全可以通過對于圖像信號的環(huán)境感知,通過對于圖像信號的環(huán)境感知,來接收用戶的更多種多樣的傳遞的信息,比如身體姿態(tài),比如用表情傳遞出來的情緒。
我們正在合作做一個電子寵物貓,它的觸感就像真貓一樣,用戶可以摸著它的背和它的脖子去感受。然后我們的大模型放在里面不是讓它學(xué)會說話,而是讓它更懂用戶傳達的情緒,它可以用對應(yīng)的情緒的叫聲和姿態(tài)來回應(yīng)用戶,讓用戶覺得這個貓好懂我,這就是一個全新的場景陪伴。
AI光年:copilot和agent的區(qū)別是什么?
李大海:Copilot就是助手,它已經(jīng)做到了70%,工程師只要做一些修改和檢查就可以用了。Agent基本上可以理解為機器人,我們叫它智能體。這個智能體它是能夠跟環(huán)境去做更自主的互動,能夠做出更自主的決策。
我還有一個補充,剛才提到的交互,主要還是怎么接收和收入的,還有一個是輸出。比如現(xiàn)在的手機界面,都是通過安卓開發(fā)工程師寫出來的APP固定的軟件界面,未來大模型有機會接管這個輸出界面。
當(dāng)它(大模型)需要用某種方式去表達它的觀點和輸出它的信息的時候,它完全可以用類似于現(xiàn)在的圖像生成的方式,直接就把相關(guān)的信息生成出來。這也是一個未來可能會產(chǎn)生的可以期待的方向。
林凡:我們現(xiàn)在所謂的千人千面,還是說你看到的內(nèi)容是不一樣的。而未來的千人千面,你看到的界面都是不一樣的。
中美差距:云端差距明顯,端側(cè)同時起步
林凡:大模型剛出來的時候,我們說中國落后美國兩年的時間,稍微有一些追趕后可能只差一年了。這個差距主要是指云端大模型,因為云端大模型受到美國對硬件的限制,中國在算力是有極大差距的。
那么在端側(cè)大模型,中國的設(shè)備硬件還是不錯的,而像蘋果的硬件和模型之間的差距還要一兩年的時間,那不知道在端側(cè)大模型上面中美的差距如何?我自己對面壁印象最深刻的就是,斯坦福一個團隊抄襲你們的模型。
李大海:云端模型的話,中美的差距我覺得還是1到2年的。到底是一年還是兩年,可能不同的人的觀點不太一樣,這個量化本身也沒有太大的意義,都是大家的感受而已。不糾結(jié)它多大,但差距依然很明顯的存在。
主要體現(xiàn)在我們現(xiàn)在國內(nèi)的所有云端大模型,還沒有誰顯著的達到或者超過GPT-4。
隨著這個o1出現(xiàn),我們肯定還有更多的追趕的工作。但是o1這件事情我比較樂觀的點是,我們過去一年,國內(nèi)有很多公司,包括面壁在內(nèi),在agent上做了蠻多的工作。因為我自己的看法就是o1其實它是把agent的能力內(nèi)化了。所以我覺得這個追趕起來應(yīng)該沒有那么的難。
但是更大的模型做到GPT-4、GPT-4o,甚至未來馬上要出的GPT-5,這方面的追趕還要花一些時間。
端側(cè)模型上因為面壁出發(fā)的比較早,我們跟微軟的Phi系列起步、發(fā)展的速度差不多。所以我們在這塊上其實跟美國的差距并不大。
林凡:具體在技術(shù)上會有哪些差距呢?我們有哪些優(yōu)勢?
李大海:我以稀疏化這個方向舉例。我們云端往往用的是MoE的方式,就是混合專家模型,這在云端很好用,因為MoE內(nèi)存相對便宜,可以用內(nèi)存換計算的密度。但端側(cè)用MoE就不是一個很好的選擇,我們剛剛講了,算力的大孝內(nèi)存的大小,還有內(nèi)存的帶寬都可能會是瓶頸,我們看到更好的方式是逐漸在模型里進行稀疏化。
我們在今年7月份的時候,在行業(yè)里面首創(chuàng)發(fā)布了稀疏化的端側(cè)模型,這種技術(shù)原創(chuàng)性的工作,我們跟美國的起步是同時的時候,我們不會落后,也能做出領(lǐng)先的技術(shù)點。
大模型的演進速度非常的快。任何一個公司都很難說自己的工作永遠是或者說長時間保持Sota,state of the art,可以簡單理解為行業(yè)最好水平。
很多時候一個工作做出來能夠Sota一個月就很好了。更重要的是一個團隊具備這樣的素質(zhì),能夠在一個領(lǐng)域里面做出Sota的原創(chuàng)工作,以及能夠跟進其他人的Sota工作。
林凡:MOE給大家簡單解釋一下,就是相當(dāng)于說在一個模型里面,有很多個專家同時在對一個事情做判斷,然后把它們合并在一起,尋找到一個最優(yōu)的解返回給用戶。但是稀疏化在原理上面是怎么解決剛才說的這個問題的呢?
李大海:首先我們理解一個現(xiàn)象,人的大腦是稀疏化的。
我們現(xiàn)在在這里討論大模型話題,都是集中精力的。但是就算我們集中精力,我們的大腦可能也只有5%的神經(jīng)元是激活的。這是大腦的稀疏化特性,對于節(jié)省能耗非常有幫助。人的大腦只有15瓦到25瓦,其實主要就是由這個稀疏性帶來的。
我們發(fā)現(xiàn)在大模型里也存在稀疏性。所以可以通過一些模型訓(xùn)練的方法,讓稀疏性能夠表現(xiàn)的更加徹底。
為什么在端側(cè)一定是要稀疏化而不是MOE。因為Scaling Law是,網(wǎng)絡(luò)的規(guī)模越大,它的能力越強。當(dāng)我們MOE混合專家的時候,每個專家的規(guī)模決定了這個模型的能力。如果我們在端側(cè)整體大小較小的情況下,還把它拆成很多個專家,那專家規(guī)模會變得更小,會對整體智能水平有影響,所以稀疏化的方式就會更好。
林凡:簡單來說,就是云端它有很強的算力,有很強的硬件,所以它就可以搞出好多個大腦來一起來去思考這個問題,然后達到一個結(jié)果。在端側(cè)要解決這個問題,但能力有限,所以盡量只讓其中的一部分活躍的去想這個,剩下的就安心的干活。
李大海:相當(dāng)于他的知識密度能夠更高,因為我參與推理的參數(shù)量變小了,所以我的功耗是更小的。
大模型的知識密度是指什么呢?就是一個大模型能夠達到的智能水平,用多大的推理參數(shù)規(guī)模來達到這個智能水平。
比如說在20年6月的時候,OpenAI發(fā)布了他們的GPT3.0的API,當(dāng)時是1750億的參數(shù),他每一次推理都要去對這1750億參數(shù)進行計算。但是在今年2月1號,面壁智能發(fā)布的 MiniCPM1.0,面壁小鋼炮1.0,24億的參數(shù)的模型已經(jīng)達到了同等的智能水平。所以我們的知識密度變得更高,差不多是GPT3.0的100倍。
其實我們?nèi)说拇竽X現(xiàn)在知識密度是最高的。人的大腦可以達到120到140的智商,但是功耗只有15到20瓦,遠比現(xiàn)在的所有的大模型都要聰明。
AI光年:大模型知識密度可以類比芯片制程,但芯片有物理載體很好理解制程縮小的過程,大模型的知識密度是怎么增加的?
李大海:芯片制程的盡頭是量子力學(xué),大模型的知識密度的盡頭是信息論,兩者都有極限。
我們根據(jù)過去對行業(yè)的觀察,提出了面壁定理,大模型每8個月它的知識密度會提升一倍。相比摩爾定律每18個月芯片的計算密度提升一倍更快。
AI光年:大模型發(fā)展會帶來能源問題嗎?
李大海:如果接下來所有行業(yè)里面所有的模型都按照高知識密度去優(yōu)化自己的模型,長期來看能源不會是一個問題。
但比如說以O(shè)penAI為首去追“星際之門”這樣非常巨大的一個集群,去訓(xùn)非常巨大的模型,這種方式對于能源,從局部上是會產(chǎn)生很大的挑戰(zhàn)。而且這樣模型訓(xùn)練出來以后,實際去做推理,服務(wù)用戶也會產(chǎn)生能源上的挑戰(zhàn),我覺得這個經(jīng)濟賬是算不過來的。
長期來看,我們還是要追求兩條腿走路。一方面要不斷的提升我們模型的知識密度;另一方面在模型各種能力上的延伸,要去做更多的、外向的、突破性的探索。這兩件事情都是要做的。但是純粹去追求模型的大,這個我覺得不是一個合理的方向。
林凡:能源問題其實非常依賴于說Scaling Law到底是一個線性的,還是一個超線性的,還是走平的狀態(tài)。
從目前來看,我覺得能源問題應(yīng)該不是一個大的問題。但是如果有哪一天技術(shù)又發(fā)生一些跳變的話,那也有可能會是一個問題。
李大海:Scaling Law我們現(xiàn)在看起來應(yīng)該不是線性的,甚至是一個類似log函數(shù)這樣的變化。那我們現(xiàn)在要做的事情就是不斷的提升知識密度,讓知識密度提升速度,要快于我們對Scaling Law的規(guī)模的追求。這樣的話就可以把對規(guī)模追求,壓在一個合理的區(qū)間里。
開源與閉源沒有對錯,是商業(yè)模式選擇
AI光年:為什么大部分端側(cè)模型都選擇開源?
李大海:這是當(dāng)前的現(xiàn)狀,不代表未來大家不會把模型閉源掉。
選擇開源還是選擇閉源,是每個公司的商業(yè)判斷,這沒有對錯,它是一種商業(yè)模式。開源它能夠以更低的成本去接觸到更多的潛在的客戶,能夠讓更多客戶更方便地使用自己的產(chǎn)品。
所以在to b這個領(lǐng)域里面,你通過開源的方式能夠更好地接觸客戶,更低成本接觸客戶。同時客戶也能夠更低成本的去驗證你的產(chǎn)品的真實的含金量。
如果一個產(chǎn)品它是完全做to c的,它不需要去在模型質(zhì)量上去取悅客戶的話,它完全可以用閉源。OpenAI一開始做ChatGPT是一個C端的產(chǎn)品,那它的模型不開源也沒有關(guān)系。
林凡:在美國我們會看到大量的公司沒有采用OpenAI的API,而是用Llama 3(Meta大模型)的API,原因很簡單。今天大量的美國大公司,它的很多數(shù)據(jù)已經(jīng)在云上了,它要用OpenAI的API會面臨一個問題,它需要把數(shù)據(jù)從它原先用的云上遷移到微軟云上。所以它會說OK Llama 3也有不錯的效果了,在我的云上能用Llama 3開源的服務(wù),所以選擇Llama 3。
未來人類更重要的是構(gòu)思,白領(lǐng)工作或逐漸平臺化
林凡:我們今天能看到很多技術(shù)進展,但大多數(shù)人更關(guān)注大模型對社會、對自己會產(chǎn)生什么樣的影響。
李大海:世界會因為新的技術(shù)帶來更多崗位。我們回顧過去20年互聯(lián)網(wǎng)發(fā)展,也能看到像流量規(guī)劃師、插畫設(shè)計師這種我過去上學(xué)的時候從來沒有想象過的職業(yè)。隨著AI的發(fā)展,一定會有一些職業(yè)因為技術(shù)升級被淘汰,但同時也會產(chǎn)生更多職業(yè)。
同時我們看到,未來人更重要的是想法,是構(gòu)思,是打動別人的能力。人完全可以通過AI去放大自己的想法,也就是杠桿效應(yīng)。
面壁在去年做過一個實驗性的產(chǎn)品叫ChatDev ,是用若干個智能體去組成一個軟件開發(fā)公司,有CEO、CTO、CPO。你給它說給我開發(fā)一個貪吃蛇游戲,它就會讓CEO決定方向,CPO做產(chǎn)品設(shè)計,CTO做技術(shù)選型,然后還有軟件工程師、測試等等。所有工作做完,它會把游戲打成一個包給你。
未來一定會產(chǎn)生很多這樣的虛擬智能體,能夠幫個人去做非常多的事情。未來可能會出現(xiàn)大量的公司,就是一個人開的。他只有一個想法,有很多虛擬的智能體去幫他完成他的想法。
這樣的話整個世界的經(jīng)濟結(jié)構(gòu)會發(fā)生巨大的變化,但你說人的工作是不是都消失了?其實不是,更多人需要去做構(gòu)思的事了。我在去年年底的時候跟《失控》那本書的作者KK有過一次訪談,他有句話我特別的認(rèn)可,他說AI不會替代人,真正替代人的是比你更會使用AI的人。AI未來會是一個更有效率的工具。誰能夠掌握好這個工具,誰就能夠放大自己的工作效率。
林凡:如果我們具體一點來看的話,出國旅游的翻譯會不會被取代?酒店里的服務(wù)員會不會受到?jīng)_擊?包括大量用自動駕駛后,司機會不會受到影響?雖然說從一個很長的歷史周期來講,這些崗位這些人都肯定會有新的可能性和新的機會。但你不可避免的是當(dāng)下可能我就失業(yè)了,這個問題你怎么看?
李大海:首先這個過程它不會是一個1到2年就完全釋放的一個過程。
這個過程中一定會有一些特別具體的行業(yè)和職業(yè)受到的沖擊大一些。你看我們現(xiàn)在整個行業(yè)里面,像外賣、滴滴司機,還有內(nèi)容平臺的創(chuàng)作者,越來越多的領(lǐng)域里面,都凸顯出了靈活職業(yè)的這種特點。這種靈活的這種職業(yè)是在發(fā)生和涌現(xiàn)的。
這種交替的過程中,確實會存在有一些崗位就會縮減。但我想真的遇到這樣問題的朋友,還是要積極的去擁抱新的變化,能夠?qū)W會使用AI一定是有更多新的機會。
林凡:我有一些觀察,今天大家有的時候不好找工作,就會說去開滴滴或者是去送外賣。也就是過去互聯(lián)網(wǎng)把一部分藍領(lǐng)的工作平臺化了,給大家提供了兜底選項,就是我再差也可以去干這個事情。
AI可能會讓很多白領(lǐng)的工作開始慢慢地平臺化。
雖然AI讓“一個公司”成為可能,但前提是這個“一人公司”要通過AI平臺公司把任務(wù)拆解之后,再交給每一個具體的人來執(zhí)行。這些具體的人也會在各自的領(lǐng)域做自己擅長的事情。
那更多的人工作越來越“靈活”。這個“靈活”不是代表說真的沒工作干了被迫靈活,而是說未來組織的構(gòu)建的形式會發(fā)生巨大的變化,公司可能要么就是一個人的公司,要么就是越來越大的平臺來去整合所有這些勞動力的資源。
李大海:對,這個跟我剛剛提到的copilot和agent也有關(guān)系。
AI的能力還在發(fā)展過程中,對于準(zhǔn)確率要求非常高的工作場景,全依賴AI還不太現(xiàn)實,這個時候它是copilot的形式,所以就需要人在里面做一些兜底工作。
蘿卜快跑,我們知道它背后是有大概幾千個司機做云代駕,一旦智能駕駛系統(tǒng)出了任何問題,馬上有人來接管。它就是copilot的一個很好的范例。
我有個朋友在海外,他去為金融機構(gòu)做了一個很好的業(yè)務(wù)系統(tǒng),里面用了非常重的AI。但是客戶選擇他們的唯一的原因是,他們背后有一個500人的人工團隊做托管,一旦有什么問題的時人會接管,所以客戶敢用很放心。
林凡:面壁現(xiàn)在會在看什么樣的人才?
李大海:我們從去年就一直在提一個詞叫AI原生人才。什么叫AI原生的人才呢?我們用搜索原生人才來做一個例子。
現(xiàn)在幾乎所有人都是搜索原生的,生下來就有搜索這個產(chǎn)品,所以但凡我遇到什么問題,我都會想著去通過搜索來解決問題。但是AI是個新事物,看大家遇到問題后,是不是善于或者下意識地就想用AI去解決問題。
能夠擅長把AI跟自己的能力結(jié)合在一起的人,我們把他稱為AI原生的人才,這是第一個。
第二個,我們非常認(rèn)同AI的這種學(xué)習(xí)方法,機器學(xué)習(xí)的方式是一種非常好的優(yōu)化方式。所以我們?nèi)ゴ罱ńM織的時候,也會把自己搭建成為一個學(xué)習(xí)型的組織,或者說像機器學(xué)習(xí)型的組織。
更簡單的講,你要更能理解自己真實的情況,不要欺騙自己,要知道自己現(xiàn)在什么地方好,什么地方不好,要知道自己的目標(biāo)是什么,就相當(dāng)于能夠快速迭代,每次迭代都能知道自己在這個迭代里面有多大進步,離目標(biāo)還有多遠。只有這樣的方式,才能夠不斷地學(xué)習(xí)進步。
AI光年:我們現(xiàn)在的公司組織還是從工業(yè)時代延續(xù)下來的科層制,以后這個科層制是否適用于AI時代?會有怎樣的迭代?
林凡:未來的公司還是會有科層制,特別是一些平臺型的公司、核心的大模型的公司,它還會是科層制的,但一定會涌現(xiàn)出更加平層的管理機制。當(dāng)所有的任務(wù)流開始被AI掌管的時候,有很多具體的工作就可以由人來做,上面就是AI了。
李大海:AI人工智能在這個階段非常顯著的一個影響,是極大地提升人的生產(chǎn)力。生產(chǎn)力的極大的提升一定會影響到生產(chǎn)關(guān)系。在不同的領(lǐng)域,不同的場景肯定影響是不同的。
AI光年:AI會導(dǎo)致信息繭房問題加劇嗎?
李大海:這個問題可能比較哲學(xué)。有個社會科學(xué)的研究說,他發(fā)現(xiàn)他把正反兩個方向的人的觀點互相暴露地非常充分,也會導(dǎo)致這兩方對自己觀點的堅持程度變得更強。他的這個結(jié)論是否正確我不知道,我只是看到有這樣的觀點。
總的來說,現(xiàn)在因為信息過載,每個人選擇相信什么,這里面有很多的不確定性?萍荚谶@里面確實會有影響,但是具體的影響是什么,還需要我們花更多的精力去理解。
林凡:從技術(shù)角度來講的話,我倒是覺得說大模型的時代對于信息繭房這個問題會比現(xiàn)在會更好。
為什么會有信息繭房?本質(zhì)上是因為底層是一個推薦模型,推薦模型它快速收斂到你喜歡看什么,你愿意在什么信息上面去停留多長時間,它就是一個簡單的系統(tǒng)去往這個方向去迭代優(yōu)化的。
但到了大模型,因為它具備了足夠多的信息,并且它具備了一定的推理邏輯在這個地方。所以只要我們在這個底層邏輯上,不完全按個人喜歡去輸出信息,那么你是有機會把信息繭房繞過去一部分。但肯定還是會有類似的問題。
AI光年:其實從古至今都存在信息繭房,只是互聯(lián)網(wǎng)發(fā)達之后,我們對“繭房”這個概念更清晰了。
李大海:你說的沒錯。現(xiàn)在每個人每天接受信息量也比過去大非常多,但從大腦構(gòu)造的角度上來講,大腦還是傾向于去接受自己熟悉的信息和自己關(guān)注的信息。
有篇非常有影響力的論文,叫《Attention Is All You Need》,這篇文章是講大模型的,但是我覺得這個標(biāo)題也適合我們現(xiàn)在的討論點。很多時候人的注意力是分配到自己想要分配的地方去的,所以信息繭房一方面是人的個人選擇,另一方面也是商業(yè)順應(yīng)人的選擇,利用人性下沉的力量去實現(xiàn)商業(yè)目的。
如果每個人都傾向于去消費自己不熟悉的內(nèi)容,那商家或者說這些系統(tǒng),這些應(yīng)用,這些業(yè)務(wù),它也會去順從這個趨勢。但實際上不是,很多時候都是人的選擇。