英偉達與AMD加速向高端化產品的升級將驅動800G光模塊加速放量
1年前

AMD着手追隨英偉達在AI超算的腳步。今年年初AMD公布了InstinctMI300數據中心/HPC芯片,集成24個Zen 4 EPYC內核、CDNA3 GPGPU內核以及128GB的HBM3內存,預計今年下半年發布。HBM3內存帶來5.734TB/s的帶寬性能,比英偉達H100高72%;可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周。

AIGC引發算力軍備競賽。市場低估了算力軍備競賽對需求及創新的拉動,我們認爲AMD的出招將加速英偉達H100的放量。當前,AIGC正在走向多模態,各種服務已經實現商業化,用戶需求剛被點燃:ChatGPT月訪問數在2023年4月已達18億之多;早在去年11月,DALL-E每天創建的圖片數量就已達400萬張;Midjourney在Discord服務器中現在已有累積超過1730萬用戶。算力供給端,據OpenAI測算,自2012-2018年,用於訓練AI所需要的算力大約每隔3-4個月翻一倍,總共增長了30萬倍,以摩爾定律速度只有12倍增長,每年頭部訓練模型所需算力增長幅度高達10倍,整體呈現指數級增長。華爲預計2030年全球算力規模達到56ZFlops,9年CAGR達到65%,未來的IT資本开支有望由AI引領。

算力軍備競賽驅動“黑科技”放量,新品發布節奏有望加速。算力供給端龍頭英偉達1QFY24錄得強勢增長業績,同時對未來給出樂觀預期。在行業的樂觀展望下,AMD也將加入算力供給側的競爭中,我們認爲這將驅使英偉達進一步提升H100/GraceHopper芯片的出貨量佔比並加快新品研發的節奏,以保持競爭力。我們認爲,AMD加入AI大賽只是一個开端,未來半導體巨頭的“你追我趕”將推動行業快速向前發展。

高性能AI超算場景下,光通信價值量得以再次提升。根據我們此前的研究,英偉達A100 DGXSuperPOD場景中,每塊A100對應6只200G光模塊,而在最新的滿配GH200中,每塊GraceHopper對應9只800G光模塊,同時帶來光纖用量進一步提升,連接器件向多芯、高密度結構進化。英偉達與AMD加速向高端化產品的升級將驅動800G光模塊加速放量。


追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:英偉達與AMD加速向高端化產品的升級將驅動800G光模塊加速放量

地址:https://www.breakthing.com/post/67753.html