AI服務器需求爆發下,爲什么說800G光模塊是一個大節點,爲什么不是400G
1年前
AI服務器需求爆發下,爲什么說800G光模塊是一個大節點,爲什么不是400G
(1)首先,AI服務器對於底層數據的傳輸速率和時延要求非常高,對應的架頂交換機需匹配底層的數據傳輸帶寬,且可能還需有時延冗余,需要高速率光模塊匹配。例如英偉達DGX H100 服務器,配有8個H100 GPU模組,假設每個GPU需要2個200G光模塊,則每台服務器內部至少是16個200G,對應架頂交換機端口則至少需要4個800G。
(2)其次,800G光芯片更具有經濟性和性價比。800G採用100G EML芯片,而200G/400G所採用的是50G光芯片,經測算相同速率下,100G光芯片成本較2顆50G光芯片成本可降低30%
追加內容
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:AI服務器需求爆發下,爲什么說800G光模塊是一個大節點,爲什么不是400G
地址:https://www.breakthing.com/post/78550.html