阿裏雲不再把开發大模型當OKR,MaaS第一階段競爭結束了。
這兩天,一段大模型生成的高清視頻合集在網上爆火。無論是神祕的克蘇魯、還是海底生物藍汪汪的大眼珠子,AI的“想象力”簡直讓網友們欲(san)罷(值)不(狂)能(掉)。最關鍵的是,這段視頻的分辨率達到了前所未有的1024×576!高清還絲滑流暢,背後模型ZeroScope憑借生成效果,在推特和Reddit上狂刷熱度。火到特斯拉前AI總監Andrej Karpathy也來“哇哦~”了一波。
我們扒了扒,發現這個驚豔四座的ZeroScope,核心框架來自一個國內中文社區上的开源大模型。它名爲text-to-video-synthesis(文本生成視頻大模型),17億參數,由阿裏達摩院提供。只需輸入文本描述,就能get對應的流暢視頻。也就是說,咱國產社區的开源模型,熱度橫掃中外社交平台。更神奇的是,ZeroScope不按套路出牌,它沒有用這個基礎大模型的名字命名,而是選擇了社區名字ModelScope裏的“Scope”。這究竟是個什么樣的社區?解答這個問題,就得追本溯源,到原教旨社區裏面一探究竟——國產熱門大模型“聚集地”ModelScope,中文名“魔搭”社區,同樣由阿裏成立,是國內最大的AI模型社區。這個社區所有的功能和服務,統統以模型开發爲中心展开。
現在的魔搭社區裏,爆火的ZeroScope大模型“原型”只是其中之一。社區初成立就光速上线300+機器學模型,更是有10多個國產大模型選擇在這裏开源;時至今日,魔搭社區已經聚集了900多個AI模型,开源的大模型數量也達到了30多個。再拉出社區貢獻者名單一看,好家夥,全是國內熱門大模型玩家,譬如智譜AI、瀾舟科技、百川智能、IDEA研究院、清華TSAIL等等。且不說明星企業們,普通AI开發者就有超過180萬在魔搭社區愉快玩耍。之所以稱體驗爲“愉快”,一方面是因爲所有的模型生產者都可以在魔搭社區上傳模型,對模型技術能力進行驗證。如果有需要,還能和社區共建者們一起探討和摸索模型的應用場景,產品化或商業化落地模式,也能探究一二。另一方面,魔搭社區背後還有阿裏雲的模型服務靈積,能夠提供一站式的模型API門戶。無論是阿裏自研的大模型通義千問,還是ChatGLM v2、百川大模型、姜子牙、Dolly等大模型,都已經可以通過靈積一鍵調用。利用它,开發者很方便就能調用各種雲上模型,不僅集成到自己的應用中時無需再費大力氣,甚至訓練微調大模型這種事情,都可以通過數行代碼搞定。雖然已經很方便了,但魔搭社區還希望大家夥使用大模型時,門檻能更低。在世界人工智能大會WAIC的主題論壇《MaaS:以模型爲中心的AI开發新範式》上,阿裏雲宣布,爲了更好地與個人和企業开發者一起探索探索應用和商業場景,將正式推出魔搭大模型調用工具ModelScopeGPT。所謂大模型調用工具,常以Agent(智能代理)的名字出現,此前最出圈的當屬AutoGPT和HuggingGPT。這類工具的最大亮點在於“自動完成各種復雜任務”,用戶只需以自然語言提出需求,它們就能調用各種資源搞定任務。阿裏雲首席技術官周靖人直言:我們需要Agent,用它理解基礎模型之外的工具,更重要的是更有效地調用這些工具。具體到ModelScopeGPT身上,它能在接受自然語言指令後,將任務拆解爲具體的細分步驟,而後通過阿裏雲通義千問大模型作爲“中樞模型”,自動生成代碼,調用魔搭社區裏作爲“任務模型”的其它AI模型。通過協同,融合各種模型的各種能力,完成復雜指令。簡單來說,用ModelScopeGPT,只需要極小的技術投入,就能實現文本、語音、圖頻、視頻等多個模態能力的調用,提升專用領域模型表現,一個人達到一個公司的生產力。據了解,這是國內推出的首個智能工具,目前具備完成單一任務、復合任務、多API規劃調用、多輪對話API調用,模型知識問答等能力。更重要的是,相比AutoGPT、HuggingGPT,無論是對話輸入還是調用模型,ModelScopeGPT都以中文爲主。可以說是更適合中國开發者體質的機器學工具了(手動狗頭)。不過,魔搭社區爲何能順利運轉起來,甚至於吸引上百萬AI开發者使用?進一步地,它又何以成爲不少國產大模型賽道核心玩家开源大模型的“聚集地”?“這是大模型計劃的一部分”背後原因,或許可以追溯到阿裏雲的“大模型生態計劃”——MaaS(模型即服務)。讓开發者們自由討論的魔搭社區,只是阿裏雲以MaaS爲核心構造的大模型生態的一個維度。在MaaS中,不僅有魔搭社區這樣的开發者生態層,更重要的是還有提升大模型訓練穩定性、提供模型調用等服務的AI平台層,以及提供核心算力的基礎設施層。开發者生態層:魔搭社區AI平台層:PAI機器學平台、靈積模型服務基礎設施層:靈駿智算集群如果說开發者生態加速了大模型時代的到來,那么AI平台層和基礎設施層,就像是大模型時代的“水電煤”一樣,提供了這一技術發展最根本的動力。這也是不少大模型开發者選擇將模型部署在阿裏雲靈積平台和魔搭社區的原因。一方面,在基礎設施層,阿裏雲擁有當前國內TOP級的智能算力儲備。阿裏雲的靈駿智算集群,支持最高10萬張卡的GPU規模,自研的高速RDMA鏈路達3.2Tbps,網絡最低時延1.5s,並行存儲量可達20TB/s。簡單來說,即使是多個萬億參數大模型同時在阿裏雲上訓練,對硬件設施而言也沒有什么壓力。不僅如此,在數據安全上,除了基於可信計算和機密計算技術推出業內首個基於SGX2.0和TPM的虛擬化實例以外,阿裏雲還基於TPM、VTPM、虛擬化Enclave等技術,構建了基於神龍安全芯片的全隔離、高可信的計算環境,完美消除了企業對模型安全隱患的顧慮。但如何將這么多的算力最大化利用,同時進一步簡化模型的使用方式,對於雲計算廠商而言又是一大考驗。另一方面,在AI平台層,阿裏雲還提供了對應的平台來實現軟硬件加速服務和模型服務。軟硬件加速服務,即PAI機器學平台,就能用來提升AI开發和AI資源管理的效率。PAI和靈駿智算集群,二者加起來共同構成了一個高性能、分布式的智能計算平台,相當於對軟硬件進行了一個協同。它一共分爲三大框架:高性能訓練框架、高性能推理框架和全托管平台。先來看看高性能訓練框架。具體來說,它的可訓練模型參數規模,最高能達到10萬億,能將訓練性能最高提升10倍。同時,在單任務需要多個GPU的情況下,訓練效率幾乎不會降低。要知道,硬件數量增多,並不意味着算力也能1+1>2,這種時候就非常考驗分布式計算的技術。基於PAI×靈駿智算平台,即使單個訓練任務所需的硬件規模從千卡增加到1萬張卡,性能也幾乎還是“直线”上升,其线性擴展效率達到92%。而在高性能推理框架上,推理效率提升更是最高能提升6倍。平台提供的推理加速服務,不僅能自動地做模型剪枝、量化、蒸餾和網絡結構搜索,還能在性能基本無損的情況下,將大模型推理性能提升3.5倍。至於全托管平台,則可以理解爲是一個更好用的开發平台,包含無服務器架構、工程化和穩定三大特徵,可以實現自動化運維、兼容多種框架及計算資源、智能容錯和節點自愈等功能。目前,這三大平台已經全面开啓商用。模型服務,就是前面提到的一站式服務平台靈積了,不僅能爲开發者提供靈活、易用的大模型API接口,還能與平台底座很好地“結合”,進一步提升推理和訓練的效率。然而,阿裏雲並非沒有自己的大模型,已經推出的“通義”系列就是例證。最早推出的大語言模型通義千問,如今申請用戶已經超過30萬,深度合作企業更是超過100家;而推出僅一個月的音視頻助手通義聽悟,處理的音視頻時長已經超過5萬小時,文字處理量更是已經達到8億多字。除了通義千問和通義聽悟以外,在這次WAIC大會論壇上,阿裏雲還發布了名爲通義萬相的AI繪畫創作模型,包含文生圖、風格遷移和相似圖生成功能,目前已經开放邀測。既然如此,爲何還要將大模型开發集成爲一整套服務MaaS开放給行業使用,培養更多“大模型競爭者”?周靖人在WAIC大會接受採訪時回應稱,阿裏雲並不扮演“大模型开發者”的角色:不是所有業務开發者或企業都有能力做模型。爲此,我們打造了自己的通義模型系列,幫助這些开發者和企業享受到大模型帶來的一系列技術優勢,快速轉化成業務價值。但我們的主要目標不是做模型和开發者,而是服務好雲上的开發者和企業。這樣,擁有不同技術層次的开發者和企業,都能享受到AI時代的技術。也就是說,無論是通義大模型系列,還是由魔搭社區、靈積模型服務、PAI機器學平台、靈駿智算集群組成的一系列模型开發服務,本質上都是“阿裏雲大模型生態計劃的一部分”。阿裏雲認爲,人工智能時代才剛剛看到發展的起點。也正是因此,MaaS還會蓬勃發展,更多企業和开發者也會在這種生態中實現自己的價值,實現更多商業化落地。正是因此,阿裏雲才會把促進中國大模型生態的繁榮作爲首要目標,以雲服務商身份,开放技術、工具、經驗,降低大模型門檻。周靖人表示:對於今天模型的創新者,我們非常支持,也希望他們成功,我們會爲他們創造的模型提供堅實的平台基礎。因此,除了向大模型創業公司提供全方位雲服務以外,阿裏雲也會在資金和商業化探索方面提供充分支持。
不僅如此,以MaaS爲核心的大模型生態,還會反過來重塑雲產品的設計。MaaS新範式:大模型決定走多快,生態決定走多遠但即便都說MaaS在重塑雲計算、MaaS改變了雲計算遊戲規則,當前大部分企業的關注度,似乎也仍然集中在大模型本身。從整個行業的角度來看,爲何阿裏雲要在這個變革浪潮中,花這么大的資源和心力在大模型的生態建設上?目前來看,大模型給雲計算帶來的影響,主要可以分爲兩個階段。由這兩個階段的進展來看,雖然大模型決定了雲計算新範式MaaS的速度,但生態決定了真正能走多遠。第一階段,市場上的大模型是“有”和“沒有”的區別,核心是用得上。OpenAI最早推出了ChatGPT,成爲大模型領域的“規則改變者”,本質上是率先推出了一項前沿技術,並佔領了市場話語權。對於後續緊隨潮流的企業們而言,能否在這一階段取得優勢,關鍵還是看接入業務的時間、速度的快慢。畢竟在這個階段,比拼的還是有沒有大模型,企業只要越早突破技術瓶頸、用上大模型,就越能在應用生態市場上佔據話語權,吸引更大的市場。第二階段,大模型已經層出不窮,市場門檻也开始降低,對應的模型服務开始進入用戶視野。從這個階段开始,大模型能力供應的穩定性(用戶數量激增,是否會導致服務器宕機)、大模型數量的豐富度、大模型種類的多樣性,都會开始成爲雲廠商新的比拼點,也會成爲企業選擇大模型服務的參考。同時,在大模型這一賽道上,從來就不是“後來者居上”。只有越豐富的供應,才能帶來越多的客戶;更多的客戶,才能在數據反饋中幫助精進和迭代,從而產生“飛輪效應”。如長期在機器學模型有積累的社區Hugging Face,就基於社區已有的开源模型推出了HuggingGPT,以一個大模型調用多個AI模型的方式,迅速將長期積累的模型生態轉變成更大的行業影響力。這個階段开始,生態的作用就會顯現。而這也是爲什么構建一個生態,決定了MaaS的高度。但無論處在哪個階段,最核心的是,大模型依然是一個成本高昂的新事物。不論在研發、迭代還是使用階段,大模型都是一個消耗資源巨大、使用成本也不低的“奢侈品”。所以只有構建一個生態,才能真正通過規模效應降低成本、幫助迭代精進,最後實現大模型和MaaS真正的商業可持續,這更需要生態。所以真正重視大模型,真正重視MaaS的玩家,一定會不遺余力打造生態。MaaS新範式的遊戲規則中,大模型決定了一开始走多快,生態決定了最後走多遠。
本文作者可以追加內容哦 !
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:阿裏雲不再把开發大模型當OKR,MaaS第一階段競爭結束了
地址:https://www.breakthing.com/post/76015.html