中信建投:兩年內算力板塊都將處於高景氣度階段 重點推薦AI算力產業鏈各環節相關公司
1年前

中信建投發布研報表示,生成式AI取得突破,以ChatGPT爲代表的大模型訓練和推理端均需要強大的算力支撐,產業鏈共振明顯,產業鏈放量順序爲:先進制程制造->以 Chiplet 爲代表的 2.5D/3D 封裝、HBM->AI 芯片->板卡組裝->交換機->光模塊->液冷->AI 服務器->IDC 出租運維。

綜合來看,大模型仍處於混战階段,應用處於滲透率早期,AI板塊中算力需求增長的確定性較高,在未來兩年時間內,算力板塊都將處於高景氣度階段,重點推薦AI算力產業鏈各環節相關公司。

中信建投的主要觀點如下:

生成式AI取得突破,實現了從0到1的跨越,以ChatGPT爲代表的人工智能大模型訓練和推理需要強大的算力支撐。

自2022年底OpenAI正式推出ChatGPT後,用戶量大幅增長,圍繞ChatGPT相關的應用層出不窮,其通用性能力幫助人類在文字等工作上節省了大量時間。同時在Transformer新架構下,多模態大模型也取得新的突破,文生圖、文生視頻等功能不斷完善,並在廣告、遊戲等領域取得不錯的進展。生成式AI將是未來幾年最重要的生產力工具,並深刻改變各個產業環節,圍繞生成式AI,無論是訓練還是推理端,算力需求都將有望爆發式增長。

算力產業鏈價值放量順序如下:先進制程制造->以Chiplet爲代表的2.5D/3D封裝、HBM->AI芯片->板卡組裝->交換機->光模塊->液冷->AI服務器->IDC出租運維。

先進封裝、HBM:爲了解決先進制程成本快速提升和“內存牆”等問題,Chiplet設計+異構先進封裝成爲性能與成本平衡的最佳方案,台積電开發的CoWoS封裝技術可以實現計算核心與HBM通過2.5D封裝互連,因此英偉達A100、H100等AI芯片紛紛採用台積電CoWos封裝,並分別配備40GB HBM2E、80GB的HBM3內存。全球晶圓代工龍頭台積電打造全球2.5D/3D先進封裝工藝標杆,未來幾年封裝市場增長主要受益於先進封裝的擴產。

AI芯片/板卡封裝:以英偉達爲代表,今年二季度开始釋放業績。模型訓練需要規模化的算力芯片部署於智能服務器,CPU不可或缺,但性能提升遭遇瓶頸,CPU+xPU異構方案成爲大算力場景標配。其中GPU並行計算優勢明顯,CPU+GPU成爲目前最流行的異構計算系統,而NPU在特定場景下的性能、效率優勢明顯,推理端應用潛力巨大,隨着大模型多模態發展,硬件需求有望從GPU擴展至周邊編解碼硬件。

AI加速芯片市場上,英偉達憑借其硬件產品性能的先進性和生態構建的完善性處於市場領導地位,在訓練、推理端均佔據領先地位。根據Liftr Insights數據,2022年數據中心AI加速市場中,英偉達份額達82%。因此AI芯片需求爆發,英偉達最爲受益,其 Q2收入指引110億美金,預計其數據中心芯片業務收入接近翻倍。國內廠商雖然在硬件產品性能和產業鏈生態架構方面與前者有所差距,但正在逐步完善產品布局和生態構建,不斷縮小與行業龍頭廠商的差距,並且英偉達、AMD對華供應高端GPU芯片受限,國產算力芯片迎來國產替代窗口期。

交換機:與傳統數據中心的網絡架構相比,AI數據網絡架構會帶來更多的交換機端口的需求。交換機具備技術壁壘,中國市場格局穩定。

光模塊:AI算力帶動數據中心內部數據流量較大,光模塊速率及數量均有顯著提升。訓練側光模塊需求與GPU出貨量強相關,推理側光模塊需求與數據流量強相關,伴隨應用加速滲透,未來推理所需的算力和流量實際上可能遠大於訓練。目前,訓練側英偉達的A100 GPU主要對應200G光模塊和400G光模塊,H100 GPU可以對應400G或800G光模塊。

根據該行的測算,訓練端A100和200G光模塊的比例是1:7,H100和800G光模塊的比例是1:3.5。800G光模塊2022年底开始小批量出貨,2023年需求主要來自於英偉達和谷歌。在2023年這個時間點,市場下一代高速率光模塊均指向800G光模塊,疊加AIGC帶來的算力和模型競賽,該行預計北美各大雲廠商和相關科技巨頭均有望在2024年大量採購800G光模塊,同時2023年也可能提前採購。

光模塊上遊——光芯片:以AWG、PLC等爲代表的無源光芯片,國內廠商市佔率全球領先。以EEL、VCSEL、DFB等激光器芯片、探測器芯片和調制器芯片爲代表的有源光芯片是現代光學技術的重要基石,是有源光器件的重要組成部分。

液冷:AI大模型訓練和推理所用的GPU服務器功率密度將大幅提升,以英偉達DGX A100服務器爲例,其單機最大功率約可達到6.5kW,大幅超過單台普通CPU服務器500w左右的功率水平。

數據顯示,自然風冷的數據中心單櫃密度一般只支持8kW-10kW,通常液冷數據中心單機櫃可支持30kW以上的散熱能力,並能較好演進到100kW以上,相較而言液冷的散熱能力和經濟性均有明顯優勢。同時“東數西算” 明確PUE(數據中心總能耗/IT設備能耗)要求,樞紐節點PUE要求更高,同時考慮到整體規劃布局,未來新增機櫃更多將在樞紐節點內,風冷方案在某些地區可能無法嚴格滿足要求,液冷方案滲透率有望加速提升。目前在AI算力需求的推動下,如浪潮信息、中興通訊等服務器廠商已經开始大力布局液冷服務器產品。在液冷方案加速滲透過程中,數據中心溫控廠商、液冷板制造廠商等有望受益。

AI服務器:預計今年Q2-Q3开始逐步釋放業績。具體來看,訓練型AI服務器成本中,約7成以上由GPU構成,其余CPU、存儲、內存等佔比相對較小,均價常達到百萬元以上。對於推理型服務器,其GPU成本約爲2-3成,整體成本構成與高性能型相近,價格常在20-30萬。根據IDC數據,2022年全球AI服務器市場規模202億美元,同比增長29.8%,佔服務器市場規模的比例爲16.4%,同比提升1.2pct。

該行認爲全球AI服務器市場規模未來3年內將保持高速增長,市場規模分別爲395/890/1601億美元,對應增速96%/125%/80%。根據IDC數據,2022年中國AI服務器市場規模67億美元,同比增長24%。該行預計,2023-2025年,結合對於全球AI服務器市場規模的預判,以及對於我國份額佔比持續提升的假設,我國AI服務器市場規模有望達到134/307/561億美元,同比增長101%/128%/83%。競爭格局方面,考慮到AI服務器研發和投入上需要更充足的資金及技術支持,國內市場的競爭格局預計將繼續向頭部集中,保持一超多強的競爭格局。

IDC:在數字中國和人工智能推動雲計算市場回暖的背景下,IDC作爲雲基礎設施產業鏈的關鍵環節,也有望進入需求釋放階段。在過去兩年半,受多重因素影響下,雲計算需求景氣度下行,但IDC建設與供給未出現明顯放緩,2021年和2022年分別新增機櫃數量120萬架和150萬架,因此短期內出現供需失衡情況(核心區域供需狀況相對良好),部分地區上電率情況一般。所以IDC公司2022年業績普遍承壓。

當前,該行認爲國內IDC行業有望邊際向好。隨着宏觀經濟向好,平台經濟發展恢復,AI等拉動,IDC需求有望逐步釋放,疊加2023新增供給量有望較2022年減少(例如三大運營商2022年新增IDC機櫃15.6萬架,2023年計劃新增11.4萬架)。展望未來,電信運營商在雲計算業務方面仍將實現快速增長,百度、字節跳動等互聯網公司在AIGC領域有望實現突破性進展,都將對包括IDC在內的雲基礎設施產生較大新增需求,相關IDC廠商有望獲益。

風險提示:國產替代進程不及預期。GPU的國產替代過程中面臨諸多困難,國產替代進程可能不及預期;AI技術進展不及預期。當前AI技術的快速進步帶動了巨大的AI算力需求,如果AI技術進展不及預期,可能對GPU市場的整體需求產生不利影響;互聯網廠商資本开支不及預期等。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:中信建投:兩年內算力板塊都將處於高景氣度階段 重點推薦AI算力產業鏈各環節相關公司

地址:https://www.breakthing.com/post/68253.html