2023年全球AI服務器出貨量將會增長38.4%
1年前

5月29日,市場研究機構TrendForce公布的最新報告顯示, 預計2023年AI服務器(含搭載GPU、FPGA、ASIC 等)出貨量近 120萬台,同比增長38.4%,佔整體服務器出貨量近 9%,預計到2026年佔比將提升至15%,同時上調2022~2026年AI服務器出貨量年復合成長率至 22%。另外,預計AI服務器芯片2023年出貨量將增長 46%。

TrendForce表示,英偉達(NVIDIA)GPU爲AI服務器市場搭載的主流芯片,市佔率約60%~70%,其次爲雲端業者自研的AISC芯片,市佔率超過20%。觀察NVIDIA市佔率高的要原因有三:

第一,不論美系或中系雲端服務業者(CSP),除了採購NVIDIA A100與A800,下半年需求也陸續導入NVIDIA H100與H800,尤其是新的H100與H800平均銷售單價約爲前代A100與A800的2~2.5倍,再加上NVIDIA積極銷售自家整體解決方案。

第二,高端GPU A100及H100的高獲利模式也是關鍵,NVIDIA旗下產品在AI服務器市場已擁有主導權優勢,TrendForce研究稱,H100本身價差也依买方採購規模,會產生近5千美元差距。

第三,下半年ChatGPT及AI計算風潮將持續滲透各專業領域(雲端/電商服務、智能制造、金融保險、 智慧醫療及智能駕駛輔助等)市場,同步帶動每台搭配4~8張GPU的雲端AI,以及每台搭載2~4張GPU的邊緣AI服務器應用需求漸增,今年搭載A100及H100的AI服務器出貨量年增率將超過50% 。

此外,從高端GPU搭載的HBM內存來看,NVIDIA高端GPU A100、H100主要採用的是HBM2e、HBM3內存。以今年H100 GPU來說,搭載HBM3技術規格,傳輸速度也較HBM2e快,提升整體AI服務器系統計算性能。隨着高端GPU如NVIDIA A100、H100,AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce預估2023年HBM需求量將年增58%,2024年有望再增長約30%。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:2023年全球AI服務器出貨量將會增長38.4%

地址:https://www.breakthing.com/post/62837.html