AI服務器需求爆發下,爲什么說800G光模塊是一個大節點,爲什么不是400G
1年前

1首先AI服務器對於底層數據的傳輸速率和時延要求非常高對應的架頂交換機需匹配底層的數據傳輸帶寬且可能還需有時延冗余需要高速率光模塊匹配例如英偉達DGX H100 服務器配有8個H100 GPU模組假設每個GPU需要2個200G光模塊則每台服務器內部至少是16個200G對應架頂交換機端口則至少需要4個800G

2其次800G光芯片更具有經濟性和性價比800G採用100G EML芯片而200G/400G所採用的是50G光芯片經測算相同速率下100G光芯片成本較2顆50G光芯片成本可降低30%



追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:AI服務器需求爆發下,爲什么說800G光模塊是一個大節點,爲什么不是400G

地址:https://www.breakthing.com/post/78550.html