6月11日消息,據(jù)Hpcwire援引半導體研究機構(gòu)TechInsights最新公布的數(shù)據(jù)顯示,2023年全球數(shù)據(jù)中心GPU總出貨量達到了385萬顆,相比2022年的267萬顆增長了44.2%。其中,英偉達以98%的市場份額穩(wěn)居第一。
英偉達2023年出貨376萬顆數(shù)據(jù)中心GPU
英偉達(Nvidia)的數(shù)據(jù)中心GPU(包括了面向AI的GPU)出貨量達到了376萬顆,相比2022年的264萬顆增長了112萬顆,在2023年全球385萬顆數(shù)據(jù)中心GPU出貨量當中,拿下了高達98%的市場份額,與 2022 年的市場份額相近。
也就是說,在數(shù)據(jù)中心GPU市場,AMD和英特爾(主要是數(shù)據(jù)中心GPU Max系列,未包括 Gaudi ASIC芯片)兩家廠商加起來在2023年的總出貨量只有9萬顆。
如果按數(shù)據(jù)中心GPU銷售收入來看,2023年英偉達也同樣占據(jù)了整個市場98%的份額,達到了362億美元,是2022年的109億美元的三倍多。
值得一提的是,據(jù)市場研究機構(gòu)Jon Peddie Research的最新報告顯示,2024年一季度的全球獨立顯卡(AIB)出貨量同比增長39.2%至870萬張,英偉達也以高達88%的市場份額穩(wěn)居第一。
顯然,不僅在面向AI和HPC應用的數(shù)據(jù)中心GPU市場,英偉達具有著壟斷性的領(lǐng)先優(yōu)勢,在消費類GPU市場英偉達也同樣居于壟斷地位。
來自英特爾、AMD、谷歌的競爭
TechInsights 分析師詹姆斯桑德斯 (James Sanders) 表示:“人工智能硬件還不足以匹配人工智能軟件的快速進步。因此,英偉達GPU將會面臨更多的競爭對手,比如谷歌的TPU、AMD的GPU、英特爾的AI芯片和GPU。”
桑德斯進一步指出:“我懷疑,由于人工智能的發(fā)展,它必須從英偉達對于市場的壟斷,走向多元化,這是不可避免的。”
英偉達GPU的短缺和高昂的成本,幫助了 AMD 和英特爾等競爭對手,這兩家公司在 2023 年憑借自己新的數(shù)據(jù)中心GPU,顯示出了快速增長的跡象。
TechInsights 的數(shù)據(jù)顯示,2023 年 AMD 的AI芯片出貨量約為 50萬顆,而英特爾則以 40萬顆的出貨量填補了剩余的空白。
目前,AMD 的 MI300 系列 GPU 市場表現(xiàn)良好,已鎖定微軟、Meta 和 Oracle 的采購訂單。在 今年4月份的財報電話會議上,AMD 首席執(zhí)行官 Lisa Su 表示,MI300 的銷售額在不到兩個季度內(nèi)就達到了 10 億美元。
在財報電話會議上,AMD CEO蘇姿豐還表示:“我們現(xiàn)在預計數(shù)據(jù)中心 GPU 收入將在 2024 年超過 40 億美元,高于我們 1 月份預計的 35 億美元。”
在本月的Computex 2024展會上,AMD 還表示將每年發(fā)布新款 GPU,其中計劃今年發(fā)布 MI325X,2025 年發(fā)布 MI350,2026 年發(fā)布 MI400。
顯然,AMD 正在跟隨英偉達每年推出一款數(shù)據(jù)中心GPU的藍圖。英偉達在Computex 2024展會也宣布Blackwell芯片現(xiàn)已開始投產(chǎn),2025年將會推出Blackwell Ultra GPU芯片。下一代AI平臺名為“Rubin”,將集成HBM4內(nèi)存,將于2026年發(fā)布。
英特爾目前則專注于 Gaudi AI 芯片,其最新推出的Gaudi 3 芯片性能和能效均優(yōu)于英偉達H100,但是其價格僅為H100 的一半:對于那些不想為每張 H100 卡花費超過 30,000 美元的公司來說,這是一個誘人的價格。但這種芯片不像 GPU 那樣靈活通用。生成式 AI 模型必須經(jīng)過特殊編程才能在英特爾 Gaudi 芯片上運行,這需要付出很多努力。
相比之下,英偉達和AMD的GPU 更為通用,可以適合運行各種模型,英偉達的GPU有CUDA加持,更具優(yōu)勢。因此,英特爾也在開發(fā)下一代的面向AI和HPC的代號為“Falcon Shores”的數(shù)據(jù)中心GPU。不過,有消息稱原來的Falcon Shores GPU遇到了問題,現(xiàn)在正在重新設計,計劃于2025年發(fā)布。
英特爾首席執(zhí)行官帕特基辛格 (Pat Gelsinger) 在 4 月份的財報電話會議上表示,F(xiàn)alcon Shores “將 Gaudi 3 的出色收縮性能與完全可編程的架構(gòu)相結(jié)合……隨后我們將積極推出 Falcon Shores 產(chǎn)品” 。
基辛格還表示,Gaudi 3 讓英特爾在 AI 芯片市場站穩(wěn)了腳跟,英特爾目前預計“2024 年下半年的AI加速芯片收入將超過 5 億美元”。
TechInsights 的桑德斯表示,考慮到英偉達GPU的供應和價格問題,其他的AI芯片廠商有著很多的機會,尤其是谷歌的 TPU。
桑德斯表示:“谷歌定制的TPU芯片相比亞馬遜AWS、AMD、Ampere 等廠商的定制AI芯片工作產(chǎn)生的收入更高。”
谷歌于 2013 年就開始自主研發(fā)云端AI加速芯片,以滿足加速內(nèi)部工作負載的需求,距今已有近 10 年歷史。在2015年推出自研的TPU以來,谷歌一直推動其 Google Cloud 數(shù)據(jù)中心采用自研TPU,目前已經(jīng)發(fā)展到了名為 Trillium 的第六代TPU。與 TPU v5e 相比,Trillium的每芯片峰值性能高出 4.7 倍,HBM 內(nèi)存容量和 HBM 內(nèi)存帶寬也高出兩倍,能效提升了67%。同時谷歌還新發(fā)布了自研的基于Arm架構(gòu)的數(shù)據(jù)中心處理器Axion CPU ,計劃于今年晚些時候上市。
桑德斯說:“由于某種奇怪的市場力量融合,谷歌最終成為了第三大數(shù)據(jù)中心芯片提供商(按收入計算),僅次于英偉達和英特爾。”
TechInsights數(shù)據(jù)顯示,自2015年推出自研的TPU以來,盡管谷歌沒有對外出售自研的TPU,但其2023年自用的TPU芯片量已經(jīng)突破了200萬顆大關(guān)。就出貨量來看,谷歌已經(jīng)成為了僅次于英偉達的全球第二大數(shù)據(jù)中心AI加速芯片供應商。
除了TPU之外,“Argos 是谷歌為 YouTube 開發(fā)的視頻編碼器,考慮到 YouTube 每小時需要處理的所有視頻。谷歌部署的每個定制的 Argos 視頻編碼器芯片,相當于取代了 10 個英特爾Xeon CPU。從功耗的角度來看,這也是一個巨大的變化。”桑德斯說。
云服務廠商自研芯片已成大勢所趨
對于頭部的云服務廠商來說,面對自身對于數(shù)據(jù)中心CPU和AI加速芯片的龐大需求,以及自身特定的軟件堆棧及應用需求,自研定制芯片不僅能夠提供更高的能效表現(xiàn),也能夠降低芯片外采成本和能耗成本,還能降低對于少數(shù)芯片供應商的依賴。
因此,我們可以看到,谷歌、亞馬遜、阿里巴巴、華為、百度、微軟等眾多的云服務廠商近年來都有推出自研的數(shù)據(jù)中心CPU和AI加速芯片。
除了前面提到的谷歌面向數(shù)據(jù)中心的Axion CPU 和 TPU之外,亞馬遜也擁有自己的面向數(shù)據(jù)中心的 Graviton CPU 和名為 Trainium 和 Inferentia 的云端 AI芯片,它正盡可能地為客戶降低使用各種云端算力和服務的成本。
TechInsights在研究報告中稱,2023年,AWS向客戶出租了相當于230萬顆數(shù)據(jù)中心處理器,其中Graviton占比17%,超過了該平臺上AMD芯片的使用量。“即使銷量很高,他們的總收入也不會很高。他們希望保持……與英特爾或 AMD 驅(qū)動的實例相比,擁有 10% 到 20% 的折扣。”桑德斯說。
阿里巴巴很早也推出了自研的數(shù)據(jù)中心AI加速芯片含光800,隨后又推出了自研的Arm架構(gòu)的數(shù)據(jù)中心CPU倚天710。目前這些自研芯片主要都被用于阿里巴巴內(nèi)部的服務以及云服務的相關(guān)實例當中。
此外,華為也有自己的Arm架構(gòu)的數(shù)據(jù)中心CPU鯤鵬920系列,以及數(shù)據(jù)中心AI加速芯片騰910系列等。百度也很早有推出自己的數(shù)據(jù)中心AI加速芯片昆侖芯,該業(yè)務已經(jīng)分拆獨立,并對外供應。
微軟也推出了自己的數(shù)據(jù)中心處理器Cobalt 100和數(shù)據(jù)中心AI加速器 Maia 100。雖然微軟的 AI 基礎設施目前仍依賴于英特爾CPU和英偉達GPU,但目前微軟已經(jīng)開始逐步將其軟件堆棧調(diào)整為自研芯片。
目前,所有主要的云提供商和超大規(guī)模提供商都在開發(fā)自研的數(shù)據(jù)中心處理器,以取代英特爾和 AMD 生產(chǎn)的芯片。但是目前英特爾和AMD在數(shù)據(jù)中心CPU市場仍占據(jù)主導地位,而英偉達則在數(shù)據(jù)中心GPU領(lǐng)域的占據(jù)絕對壟斷地位,并迫使云提供商分配由英偉達控制的專用空間,而英偉達將其 DGX 服務器和 CUDA 軟件堆棧放置在這些空間中。
桑德斯表示:“頭部的云服務大廠不會完全擺脫英特爾、AMD 英偉達,因為客戶對于云平臺中基于這些芯片支持的實例的需求永遠存在。”
編輯:芯智訊-浪客劍