華泰證券:AI芯片競爭加劇 英偉達(NVDA.US)發布H200 新品迭代提速顯著
10個月前

華泰證券發布研究報告稱,頭部科技大廠出於削減TCO、提升研發可控性及集成生態等考量,均陸續自研芯片,他們或將成爲英偉達(NVDA.US)最大競爭對手。英偉達剛推出NVIDIA HGX H200,從HBM3內存升級到HBM3e,也是首款採用HBM3e的GPU,相較於前代H100展現了顯著的性能提升和效率革新。主要針對AI計算的兩大瓶頸:內存容量與帶寬。其旗艦芯片迭代周期也顯著加速,從大約兩年發布轉爲一年多版。AWS、谷歌雲、微軟Azure和甲骨文等將成爲其主要客戶。

華泰證券主要觀點如下:

多方入局下,AI芯片競爭已趨白熱化

英偉達GPU一直是AI訓練端首選,華泰證券認爲包括谷歌TPU和AMD MI300系列等少數芯片能與其匹敵。但當算法开始成熟,ASIC定制芯片憑着專用性和低功耗,能承接部分算力。該機構認認爲頭部科技大廠出於削減TCO、提升研發可控性及集成生態等考量,均陸續自研芯片,他們或將成爲英偉達最大競爭對手,如特斯拉Dojo、亞馬遜在18和20年發布的AI推理芯片Inferentia及訓練芯片Trainium、以及微軟或將在 11 月 14 日Ignite 會議推出的首款自研AI芯片“Athena(雅典娜)”。AI推理市場規模大,但對算力要求比訓練低,目前雖以CPU主導,但GPU/FPGA/ASIC等也能佔到一席位。

英偉達推出NVIDIA HGX H200,新品迭代提速顯著

英偉達於美國時間11月13日推出NVIDIA HGX H200。H200從HBM3內存升級到HBM3e,是首款採用HBM3e的GPU,擁有高達141GB的內存容量,及4.8TB/s的帶寬,對比H100的80GB和3.35TB/s大幅提升。在性能表現方面,H200重點強化了推理性能和HPC性能,有效降低了能耗和整體成本。根據SemiAnalysis在10月10日的報道,英偉達未來AI芯片路线圖顯示,公司計劃在明後兩年推出H200、B100和X100等芯片及配套方案。這一策略標志着其旗艦芯片迭代周期的顯著加速,即發布間隔從大約兩年轉變爲一年多版,展示了公司的創新能力和領導地位。

NVIDIA HGX H200:性能與效率的雙重提升

NVIDIA的HGX H200相較於前代H100展現了顯著的性能提升和效率革新。在推理應用中,H200將Llama 2(700億參數的大型語言模型)的推理速度提高了近一倍。此外,H200還相對H100實現了TCO(Total Cost of Ownership)和能耗成本50%的降低。內存容量與帶寬是限制AI計算的主要瓶頸,H200在加速生成式AI和大型語言模型方面更爲出色,標志着NVIDIA在高性能計算領域邁出了重要一步。成本的減低也將有利於整體AI芯片在推理場景的應用的推進。

HGX H200預計在24Q2發貨,AWS等雲大廠均爲首批用戶

H200能夠與HGX H100系統的硬件和軟件兼容。2023年8月在SIGGRAPH大會發布的GH200 Grace Hopper 超級芯片(HBM3e版本)即爲H200與Grace CPU 配合使用。公司也計劃兩者均於24Q2正式出貨。除了英偉達自己投資的CoreWeave、Lambda和Vultr之外,AWS、谷歌雲、微軟Azure和甲骨文,都將成爲首批部署基於H200實例的供應商。

風險提示:技術落地緩慢;中美競爭加劇;芯片需求不及預期;宏觀經濟不確定性。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:華泰證券:AI芯片競爭加劇 英偉達(NVDA.US)發布H200 新品迭代提速顯著

地址:https://www.breakthing.com/post/110665.html