火山引擎給大模型造大底座!MiniMax、智譜AI等已登陸
1年前

火山引擎給大模型造大底座!MiniMax、智譜AI等已登陸

火山引擎剛剛交出大模型趨勢答卷:

火山方舟,一個大模型服務平台。

它將國內多個明星大模型放在平台上,如MiniMax、智譜AI、復旦MOSS、百川智能、IDEA、瀾舟科技、出門問問等。

不僅爲大模型玩家提供訓練、推理、評測、精調等功能與服務,後續還提供運營、應用插件等工具,進一步支撐大模型生態。

總之,就是要爲大模型,打造一個超強底座。

而透過火山方舟,火山引擎如何看待大模型趨勢?想做哪些事?如今也有了更明確的答案。

火山方舟是什么?

簡單理解,各種大模型平台都好比自營商鋪,向行業用戶售賣大模型服務。

不過火山方舟想做的不是自家專賣店,而是一個集合了多家大模型旗艦店的商城。

在這個商城裏,行業用戶可以快速觸及到業界優質的大模型,基於火山引擎的能力對模型精調推理,降低大模型使用門檻。

大模型玩家能基於火山引擎搭建穩健的大模型基礎設施,提升自家模型業務能力,觸及到更加直接和廣泛的行業需求,加速迭代升級。

火山方舟作爲連接二者的平台,則負責提供豐富完善的开發工具、充沛算力、安全互信的平台以及企業服務等,讓雙方的合作更加絲滑。


重點功能包括6個方面,貫穿了大模型採購使用的全流程:

第一是模型廣場。

這可以理解爲模型提供方和使用方初步了解的一個平台,大模型廠商能在此進行模型創建、上傳、部署等操作,下遊用戶能看到模型效果並快捷體驗。

第二是模型推理。

當用戶選定好模型後,火山引擎可提供安全互信的推理方案,既保障模型提供方的知識產權安全,同時也維護使用者的數據信息安全。用戶能直接使用已部署的在线服務,或者將精調模型部署爲在线任務。

第三是模型精調。

對於大部分行業用戶來說,通用大模型只是基礎能力,想要使用更優質的大模型服務可能都需要基於自家數據進行持續訓練或精調。

火山方舟能提供極簡精調流程,只需兩步即可一鍵精調:選擇基礎模型→上傳標注數據集。對於有復雜需求的場景,還能進一步設置高級參數、驗證集、測試集等更豐富的功能。

第四是模型評測。

生成式大模型目前還很難形成一個業界公認的benchmark,應用場景、數據等因素都會影響它的表現。但對於行業用戶來說,明晰不同大模型的優劣勢是購买服務前至關重要的一步。

所以火山方舟同步推出了評測工具,支持用戶基於自身數據、系統化地感知模型表現情況,並且給出詳細的測評報告,爲後續做決策提供數據基礎。

要知道,B端的使用場景也是“千人千面”的,企業要用自己的評測數據試一試,才能給出符合自身要求的准確評估。此外,基礎模型的升級,新技術新模型的湧現,還將持續很長一段時間。企業需要不斷測試對比、緊跟發展。

第五是運營幹預。

通過提供運營幹預工具,用戶可以快速設置相關規則,這樣在模型已經投入使用後,無需精調模型即可幹預模型輸出結果。

第六是應用插件。

目前大模型接入插件功能是大勢所趨,能進一步發揮模型能力。未來在火山方舟上,能看到實時信息獲取(通常說的“聯網”)*、私域文檔問答召回、Prompt補全與構建等。

透過以上重點功能,不難看出火山引擎對於當下雲計算趨勢的理解——盡可能加速大模型應用落地。

而且在具體實現路徑上,火山引擎還給出了一種別樣的打法,並且形成了鮮明的自身特點。

火山引擎智能算法負責人吳迪給出了三個關鍵詞來總結:

开放、加速、信任。

所以火山方舟有何不同?

开放、加速、信任,三個關鍵詞一一對應,其實代表火山方舟的自身定位、算力和安全。

首先來看自身定位上,火山方舟是個开放、中立的平台,企業客戶可以根據實際效果自由選擇模型。

對於雲廠商而言,想要做好MaaS服務,核心之一肯定是模型層要夠豐富、夠強大。因爲這意味着能在更豐富的應用場景中落地。

此前不少人將這一問題的解決,局限在了雲廠商自家大模型能力提升上。

隨着亞馬遜雲推出大模型平台Bedrock,一次接入Stability AI、Anthropic等多家大模型能力,給行業內开啓了一種新範式。

這樣一來,平台能直接引入業內最優秀的大模型,豐富自身能力和應用場景。

火山方舟的路徑亦是如此,納入更多大模型也讓它具備更高的靈活性。

吳迪介紹,這樣一來用戶能夠根據不同任務需求“貨比三家”,接觸到更多行業先進大模型。

通過提供統一的workflow,火山方舟能夠實現模型之間的靈活插拔。在多模型切換下,工作流基本不改變,讓各個模型完成自己擅長的任務,加速大模型的开發構建應用。

其次,火山引擎重點關注了大模型玩家們焦慮的算力問題。主打一個夠用、實惠且穩定。

火山引擎的海量資源池,能夠滿足當下大模型訓練推理的需求。

而通過加速訓練和推理,能讓算力的性價比更高。


N VIDI A开發與技術部亞太區總經理李曦鵬表示,如果想要硬件充分發揮性能,需要軟硬件協同設計。

硬件方面,NVIDIA針對生成式AI的不同硬件配置與火山引擎底層平台深度結合。

在軟件層面也提出了多種優化方法,雙方一起做了很多开源發布,以圖像預處理算子庫CV- CUDA 爲例。它們能高效地運行在GPU上,算子速度達到OpenCV(運行在CPU)的百倍左右。如果用CV-CUDA作爲後端替換OpenCV和TorchVision,整個推理的量能提升至原來的二十多倍,算子輸入結果上CV-CUDA
與OpenCV完全對齊。

此外,火山引擎還推出了Lego算子優化。

這一框架可以根據模型子圖的結構,採用火山引擎自研高性能算子,實現更高的加速比。

在推理場景下,使用Lego算子優化,可以將基於Stable Diffusion模型的端到端推理速度提升至66.14 it/s,是PyTorch推理速度的3.47倍,運行時GPU顯存佔用量降低60%。在訓練場景下,在128張A100上跑15天,模型即可訓練完成,比當時最好的开源版本快40%。


而在穩定性方面,火山引擎也和英偉達做了更底層的合作。

李曦鵬介紹,目前大模型訓練往往需要幾千、上萬張卡同時啓動,如果其中某台機器出現故障,則會導致整個訓練過程被影響。因此訓練過程中的穩定性非常關鍵,它將直接影響开發效率。

在這方面,火山引擎和英偉達基於內部大量測試,最終實現了特定模型的規模、網絡結構等,確定合適的checkpointing頻率,在保障訓練連續性的同時又讓機器能夠穩定運行。

具體能力也已有實際案例驗證。

大模型玩家MiniMax基於火山引擎,研發了超大規模的大模型訓練平台,高效支撐着三個模態大模型每天數千卡以上的常態化穩定訓練。在並行訓練上實現了99.9%以上的可用性。除了訓練以外,MiniMax也同步自研了超大規模的推理平台,目前擁有近萬卡級別的GPU算力池,穩定支撐着每天上億次的大模型推理調用。MiniMax和火山引擎一起爲大模型訓練搭建了高性能計算集群,一起致力於提升大模型訓練的穩定性,保證了超千卡訓練的任務穩定運行數周以上。

穩健的大模型基礎設施讓MiniMax從零开始自主完整地跑通了大模型與用戶交互的迭代閉環,實現從月至周級別的大模型迭代速度,和指數級的用戶交互增長。MiniMax面向企業級的大模型解決方案目前已接入數百家企業客戶,打通辦公協作、智能硬件、教育、醫療、客服等十余個行業場景。

然後是能力輸出上,火山引擎提出訓推一體以及統一workflow。

統一workflow的能力不僅在於模型的靈活插拔,它還集成了火山引擎對大模型能力的理解。

比如如何做自動評估?pipeline怎么定?該做多少精調?這些問題都是需要經過大量开發工作後,才能輸出的經驗。通過這些細節上的保駕護航,企業用戶落地大模型的效率和成功率都會有明顯提升。

另一邊,火山方舟也重點提出了訓推一體的理念。

吳迪表示,基於對行業的觀察,他相信未來大模型領域的頭部及腰部廠商都會使用“1+n模式”,也就是自研或深度合作一個主力大模型、同時調用多個外部模型,對訓練和推理都有需求。

加之火山引擎始終認爲深度學、機器學是一件統一、緊湊且純粹的事情,所以他們判斷訓推一體模式會是發展趨勢,並已在火山方舟上推出。

而且訓推一體化後,同樣能爲企業節省算力。

最後再來看安全方面,這也是火山方舟着重強調的部分。

吳迪表示,在大模型時代,信任問題至關重要。

大模型提供方不希望自己辛苦訓練出的模型被人拷貝走,這屬於重要知識產權;下遊客戶不希望自己的數據在推理和精調過程中不被泄露,敏感數據只有自己可見。

在這二者之間,便會形成一個信任的gap。尤其是當下大模型服務中的合作方衆多,構築信任牆就顯得至關重要。而火山引擎作爲雲平台,會通過互信計算框架,基於不同客戶的安全和隱私保護訴求,提供了包括安全沙箱、可信硬件以及聯邦學方案,來保證大家在互信的基礎上推理、精調等。


以上三個方面,將火山引擎在雲市場中的差異勾勒清晰。

從中也可看出,火山引擎的技術積累、行業經驗和趨勢理解,都爲它入局大模型平台提供了堅實的保障。

那么,爲什么火山引擎的答卷是火山方舟?

爲什么是火山方舟?

直接原因來自於市場需求。

大模型趨勢轟轟烈烈演進幾個月,幾乎觸及到了各行各業,相應的需求也隨之暴漲。

但對於行業用戶來說,怎么觸及市面上最先進的模型?怎么選擇最適合自己的模型?怎么確定最後的大模型服務方案?這些問題對企業自身的技術理解程度、开發水平都提出了要求。

作爲供給側,大模型玩家也急於在熱潮下快速推進自家業務發展。這不僅是一場技術競賽,同時也是一場商業競速賽,誰能更快觸及更多用戶,就會在市場中更快站住腳跟。在這種情況下,平台的觸達能力一定大於廠商自身。


以及底層硬件廠商,同樣也迫切需要大模型底座。
NVIDIA开發與技術部亞太區總經理李曦鵬表示,英偉達开發每一款新產品,都是以workload來驅動,所有开發都是要解決真實存在的問題。

比如隨着深度學的興起,用Tensor Core加速矩陣乘法計算,就是在原有框架下針對workload的重點模塊做效率提升。

再比如英偉達去年發布的Hopper架構,設計遠早於發布時間。當時GPT-3才剛剛問世,大模型趨勢遠沒有到來,英偉達是做了大量前瞻性的研究。而怎么做出這種前瞻性的探索,就是要從實際應用的基礎結構中去發現問題。


回到當下來看,對於未來AI的趨勢是否朝着GPT趨勢發展,李曦鵬表示現在也無法確定,但是行業中的實際需求能夠推動英偉達做出更有針對性的硬件和軟件特性升級。

怎么更快、更准確把握住這些需求?還是要依托平台連接大模型玩家。

所以,像火山方舟這樣承載着大模型供給方、使用方以及底層硬件廠商的平台,是行業迫切需求的。

而更深層的原因,還來自火山引擎自身。

吳迪很確定地說,火山方舟的使命,是加速大模型、大算力應用落地。

爲什么要加速?兩條增長曲线可以給出答案。

在以時間爲橫軸、GPU需求量爲縱軸的坐標系裏,首先出現當下的第一條增長曲线:模型訓練曲线。

現在新興的大模型正如雨後春筍般冒出,訓練需求量飆升。但隨着通用大模型市場趨於飽和,這條增長曲线也會逐漸放緩。
與此同時,還有一條增長曲线出現:推理需求曲线(模型應用曲线)。

而且它將在短期內呈指數增長趨勢,在2025年左右和訓練需求曲线相交,並在之後反超。

也就是說,市場上的推理需求量,最終一定會大於訓練需求量。因爲推理需求多大,代表了應用場景有多豐富。

如果應用場景的豐富度不夠高,導致推理需求曲线沒有快速升起,訓練需求曲线同樣也會受到影響滑落。

一旦出現這一局面,將意味着目前諸多投身大模型浪潮的創業者和企業,將會面臨非常艱難的局面。

吳迪表示,火山引擎深信大模型趨勢不是一次簡單的浪潮,它將是新技術時代的一扇窗。如果想要加速這個時代更快到來,那么就要盡可能縮短推理需求超過訓練需求的時間軸。

也就是加速大模型的應用落地。

火山方舟同時連接下遊應用層和上遊模型層、硬件層,加速企業用戶使用大模型,在營收上更快去回報大模型領域創業者,以此形成一個加速正向循環。


而這也是爲什么火山引擎要將自家大模型平台取名爲“方舟”。

吳迪說,在想名字的時候,他們希望能有一個詞來形容开放包容、生機勃勃、充滿希望的意境。

最終在幾十個詞中確定了方舟。因爲它能代表兩方面寓意。

第一,承載着很多人的事業和夢想,共同駛向一個成功的遠方,而且是一個具象的詞;

第二,火山引擎相信整個大模型、大算力領域,需要衆多合作夥伴在模型訓練、內容安全、硬件優化等方面共同努力;

如今,方舟帶着火山引擎的技術積累、行業理解以及美好愿景,正式啓航。

未來大模型浪潮將會如何翻湧,還是未知數。

但載着衆多國產大模型玩家、攜手英偉達的火山方舟,一定會帶着火山引擎駛向新的節點。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:火山引擎給大模型造大底座!MiniMax、智譜AI等已登陸

地址:https://www.breakthing.com/post/72758.html