來源丨快鯉魚
作者丨李霜霜
編輯丨海腰
2023年6月13日,英偉達市值突破萬億美元大關,僅次於蘋果、微軟、Alphabet和亞馬遜,成爲美國第五大市值公司,第二季度,英偉達在數據中心業務收入超過100億美元,高於英特爾和AMD營收之和。
GPU芯片在超級計算和全球巨頭大模型訓練战中地位舉足輕重,而掌握全球80%GPU市場份額的英偉達賺得盆滿鉢滿。然而,這種壟斷式的市場佔有率不是一夜砌成的“城牆”。
據Tractica數據,預計到2025年全球AI硬件市場收入將達到2349億美元,其中GPU的收入佔23.2%。
英偉達在GPU市場的構築的護城河,CUDA是其中至關重要的一環。
一套完善的編譯器生態
2006年,正是在AMD收購了ATI、英特爾依然蟬聯全球第一大芯片廠商的時候,英偉達推出了CUDA(Compute Unified Device Architecture),它是英偉達研發的平行運算平台及編程模型。
AI大神吳恩達簡單評價了CUDA的意義:“在CUDA出現之前,全球能用GPU編程的可能不超過100人,有CUDA之後使用GPU就變成一件非常輕松的事。”
多數CUDA的推薦者認爲,CUDA完善的編譯器生態是英偉達GPU在高性能計算領域成功的關鍵。
具體來講,CUDA具有易部署、开發接口靈活、編程語言適配、工具及代碼庫完備等優點,並且兼容Windows、Linux和MacOS多個操作系統。
CUDA的开發讓GPU不再是簡單的圖形處理器,適用對象也從遊戲制作人變爲科學家、工程師或藝術家。
隨着不斷迭代,CUDA在針對AI或神經網絡深度學習領域推出了非常多的加速庫,構成了CUDA的軟硬件生態站。
大衛·羅森塔爾在Acquired.FM中介紹,CUDA的代碼庫是經過優化的,开發人員調用這些庫开發程序更加便利。因此,CUDA有龐大的社區資源,2023年5月注冊开發者增加至400萬人。
投入過百億的CUDA生態
英偉達憑借CUDA幾乎壟斷了訓練芯片市場,業界也幾乎沒有巨頭對CUDA生態造成顛覆性衝擊。
英偉達爲CUDA生態鋪墊了十余年。
2007年,英偉達的GPU研發技術已佔據強勢地位,次年英特爾的大客戶蘋果將MacBook除CPU外直接替換成英偉達Tesla架構的GPU便印證了這一點。
據報道,經年累計英偉達對CUDA總投入早已超過100億美元。
在黃仁勳商業化考慮之下,CUDA生態需要培養潛在开發者,成爲受到程序員和企業歡迎的技術平台。
在2006年推出CUDA後,英偉達的第一個战略便瞄准了“軟件开發人員”,投入巨資讓开發者習慣使用CUDA平台。
初期,开發者社區有這樣一句話:CUDA在編程語言和共享存儲器兩個層次的並行都簡化了編程,使得本科生也能使用CUDA寫出大規模高性能計算程序。
爲擴大覆蓋率,英偉達將CUDA引入大學課堂,與伊利諾伊大學等高校合作完善函數庫。在2010年時,已有250所大學开放CUDA的教學課程,並有相關論文數千篇。以此爲基礎完善生態,英偉達建立研究中心、教學中心、認證計劃,到2015年已有800所大學开發相關課程。
再從業界來看,英偉達投入資金做inception計劃(初創加速計劃),讓初創公司運用CUDA做項目鋪墊基礎。
至今,已有超過100家初創公司利用了CUDA。此外,英偉達开源了Cub、NCCL等通用場景下的开發庫,並優化中間件性能的基礎庫給廠家使用,再次擴大了生態系統。
因此,許多开發者依賴於CUDA,同時憑借強大的核心能力在消費市場上受到青睞。
2012年,在ImageNet競賽一舉奪冠的AlexNet面世後,CUDA已迭代至5.0版本,支持了動態庫和GPU指針。
2016年,OpenAI成立之時,CUDA8.0已經支持半精度浮點數和張量核心,軟件生態已由學界和業界人士熟知、互相推薦。
2022年底,ChatGPT的發布將生成式AI送到人們眼前,CUDA12.0支持了新的NVIDIA Hopper 和 NVIDIA Ada Lovelace 架構功能,並爲所有GPU提供了額外的編程模型增強。
等到大模型熱度吹進各家企業時,英偉達已經深化了他們在行業中的差異化,成爲市場玩家購物籃的第一選擇。
目前爲止,基於CUDA的GPU銷量超過百萬。
而衆多GPU芯片廠家中,爲什么是英偉達做出了唯一的CUDA开發環境?
從虧錢生意到利潤1000%
回顧世紀初期,英偉達與微軟、ATI、AMD、英特爾五家巨頭的混战,英偉達在圖形處理市場中逐漸佔據優勢。
2006年7月,AMD以54億美元溢價收購ATI,芯片市場重新洗牌。同年,英偉達的首席科學家David Kirk提出了“將GPU技術通用化”的思路,從主要做3D渲染的任務中脫離出來,探索通用計算任務。
這個思路就是CUDA。而當時,愿意擔起這門費錢費力的技術活的也是英偉達。
幾大家芯片公司中,老對手AMD买下ATI後GPU研發進入弱勢地位,英特爾取消了自研GPU計劃。英偉達則在GPU技術方面將巨頭們甩在了身後。
17年前,研發CUDA是一個超前的決定,英偉達的CUDA進化並非一帆風順,黃仁勳則堅持“加速計算”是未來。
英偉達和英特爾在2006年秋天共同开發了基於CUDA的新型GPU,即G80 GPU。而兩者的合作持續不長久,CUDA的研發決策需要英偉達長久地投入大量資金。
從產品特性上來說,CUDA邏輯電路在硬件產品中增加會導致芯片的散熱需求增高,由此也會帶來成本上升、故障增多的風險。
從財報表現來看,CUDA也是一門虧錢生意,在2008年金融危機前後表現得更爲明顯。
在最艱難的時候,黃仁勳也沒有中斷CUDA,直到2012年辛頓教授帶隊以GPU代替CPU訓練AI模型做出了AlexNet。
2020年,黃仁勳在接受Barron周刊時強調:“英偉達將推動下一個人工智能大爆炸。”
這5年,爲了迎接人工智能,英偉達做了3件事。
第一,2019年3月,英偉達以69億美元收購了高性能計算互聯技術公司Mellanox 。這家公司的主要產品InfiniBand,被認爲速度更快、帶寬更高,是數據傳輸的有效方式,而Mellanox是唯一的InfiniBand規範提供商。
第二,英偉達於2022年9月發布新一代AI芯片“Drive Thor”,專爲大規模GPU集群協調設計,是英偉達一款完全集成的解決方案。
第三,英偉達推出專爲加速計算和生成式AI打造的Hopper架構,H100便是基於此架構的GPU。市場消息稱,H100是英偉達利潤率高達1000%的產品,出貨量超過900噸。
隨着ChatGPT發布,帶動AI服務器出貨量和價格上漲,英偉達的GPU芯片價格水漲船高。英偉達的DGX H100售價總價爲268495美元,包含8GPU+4NVSwitch基板等,每台毛利率接近190000美元。
英偉達的財務收入令人矚目,據悉,過去3個財年的復合年增長率(CAGR)達到35.2%,預計2023年收入將飆升51.4%至408億美元。
CUDA構築的壁壘能被打破嗎?
2016年,AMD推出基於开源項目的GPU生態系統ROCm,類似英偉達的CUDA系統,然而ROCm技術相較落後,在2023年4月才登錄Windows平台。由於切入時間較晚,AMD开發者數量遠也低於英偉達。在Github上,貢獻CUDA軟件包倉庫的开發者超過32600位,而ROCm只有不到600個。
英偉達大約佔據全球80%的GPU市場份額,光從銷量來看,都是一家獨大。
而英偉達的壟斷市場的優勢可以持續多久?
針對這一問題,Semi Analysis首席分析師Dylan Patel給出觀點:隨着PyTorch支持更多GPU廠商,再加上OpenAI的Triton攪局,英偉達手中的利器CUDA 逐漸鋒芒不再。
軟件生態來看,CUDA的霸主地位確實受到各方攻擊。
近年,AI开發框架PyTorch因靈活的eager模式使用比率逐漸超越了TensorFlow,PyTorch2.0版本將會對AMD、英特爾、特斯拉、谷歌等GPU和加速器進行支持完善。
OpenAI則直接推出了“簡化版CUDA:Triton”,操作難度低於CUDA。
2023年第一季度,AMD宣布ROCm系統融入PyTorch2.0框架,TensorFlow和Caffe深度學習框架也已加入第五代ROCm。其6月發布下一代數據中心加速處理器(APU)AMD MI300軟件方面能夠全面兼容英偉達CUDA生態,被業內認爲有機會挑战英偉達在人工智能的行業地位。
盡管如此,從算力角度來看,英偉達H100的升級產品DGX GH200解決了大規模AI的關鍵瓶頸,適配資金充沛且性能要求高的潛在客戶。短期內,CUDA生態仍然穩健,大多數需要訓練芯片的用戶在仍然會選擇英偉達。
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:從虧錢生意到利潤1000%,英偉達靠什么成爲萬億GPU霸主?
地址:https://www.breakthing.com/post/104512.html