手機廠商競速大模型,是噱頭還是未來?
1年前

來源/21tech(News-21)

作者/駱軼琪

編輯/駱一帆

圖源/圖蟲

短期受限於端側算力、算法,長期有望打开豐富的交互未來。

在除了折疊屏之外,硬件端難見十分明顯的創新動向之後,軟件層面的手機廠商競賽正在开啓。

上一輪軟件層面的競爭,手機廠商競相採用智能語音助手,其應用多少有些可有可無,不同於此,如今在AI大模型的驅動下,手機這個端側載體被賦予了更爲豐富的職能。

業界普遍認爲,手機端側與AI大模型能力融合後,未來將成爲每個人的私人助手。

只是這背後需要龐大的計算資源和能力支撐,對端側的設計、底層能力儲備等,都提出很高要求。此外,AI大模型本身也在持續迭代發展,典型如“幻覺”問題無法忽視,其未來走向尚有進一步探討空間。

vivo副總裁、OS產品副總裁、vivo AI全球研究院院長周圍受訪時坦言,AI大模型到今天還存在兩大關鍵問題:邏輯思維鏈能力不強與出現幻覺。

對於邏輯能力的難題,周圍指出,需要從理論層面進行建設和突破,vivo正在尋找科學家和行業解決方案;至於幻覺則需要從算法層面不斷優化。

“首先要告訴大模型,你是專家級還是小白級的定義,這是下一代GPT需要解決的;第二需要告知大模型數據庫的截止時間。我把這兩個挑战都歸因爲如今大模型較大的缺陷。”他續稱,但並不能因此就認爲大模型一無是處,其依然是一個至少容納了2.5個國家級圖書館藏書知識量的載體,假如認爲現在自研大模型還是一個,希望到一年後可以實現高中生甚至大學生的水平。

那么應用在手機端的大模型,在現階段是噱頭還是走向未來的起步階段?AI大模型會成爲新的換機動力源嗎?

競速大模型

無論國內外,AI浪潮湧動下,大模型到底該如何在硬件端被承載,都是當下核心要解決的問題。

先有谷歌Pixel 8用自研Tensor G3處理器,集成生成式AI等,交出一份AI手機的答卷;再有國內諸多手機廠商也將把旗下AI大模型融入到智能手機產品中。

11月1日,vivo發布藍心大模型矩陣,包含覆蓋十億、百億、千億三個參數量級的五款vivo自研大模型。其中,10億量級模型是主要面向端側場景打造的專業文本大模型,具備本地化文本總結、摘要等能力;70億模型是面向手機打造的端雲兩用模型,具有語言理解、文本創作能力;700億模型是面向雲端服務的主力模型,1300億、1750億模型也將在更復雜的場景提供智能服務。

據周圍介紹,作爲一款开源大模型,藍心大模型並沒有基於目前市面上的开源模型進行开發。根本原因在於,vivo團隊曾基於开源模型做過微調,但最終發現部分問題無法協調匹配,比如涉及價值觀問題等。因此最終選擇從最原始的數據進行訓練自研。2018年vivo成立人工智能圖譜研究院,目前已積累13000T的多種模態數據及2800T高質量中文文本數據。

多名AI界人士都對記者表示,要做好大模型體驗,優化“幻覺”問題,數據清洗是一道關鍵能力,但目前諸如搜索引擎中這類問題都仍需要仔細優化。

對此,周圍告訴21世紀經濟報道記者,這正是當下要解決的難題之一。“首先要做各種專業圖譜建設,比如囊括法律判例和法規條文等,針對性做諸多專業垂類圖譜建設,這需要聯合合作夥伴完成。”

其次是針對沒有完善圖譜的方面,可以設置精細化搜索的提示給用戶,亦或與搜索公司合作進行能力增強。

至於爲什么選擇以不同規模的大模型矩陣形式發布,原因在於當下算法還有提升空間的情況下,這會是更好的方案。

比如高淨值用戶會有極高的隱私保護訴求,本地端需要毫秒級別響應速度,這都是雲端無法完成的,且如果完全採用雲端的大模型,背後有着高昂的成本。“倘若vivo的3億用戶每天用10次模型,一年算下來有100億左右的支出,成本非常高。”周圍舉例道。

據介紹,目前藍心大模型的應用端口主要包括“藍心小V”和以公版APP形式推出的自然語言對話機器人“藍心千詢”。

AI大模型的應用再進一步,將是以智能體形式呈現。據周圍分析,第一階段智能體大約需要一年左右時間。無論成熟到什么級別,至少會有產品原型。要具備感知、決策、執行能力,再加上很好的度量和獎勵模型,相信整個正循環就能建立起來。

難題與未來

從此輪AIGC浪潮回溯,AI技術是在業界真正跑通了Transformer算法後,才在2021年出現智能湧現的能力。

這一方面意味着技術路线的選擇可能出現偏差,另一方面也顯示出大模型的發展過程依然曲折。對於集成度更高、功能本身就極爲復雜的智能手機來說,更是如此。

“理論上說,大模型的參數量越大,其應用落地效果會更好,但參數量越大,在手機上跑通的概率會越低。”vivo AI解決方案中心總監謝偉欽介紹道,目前能夠在手機端側實現較好效果的能力,主要包括文本總結、摘要、圖片生成、圖片風格化等。因此選擇先把相關能力放入端側,用戶無需上傳文件和圖片上雲,即可實現想要的結果。

從目前vivo旗下的大模型矩陣來說,要運轉一個10億規模大模型至少需要1G內存、70億模型需要4G內存,130億目前需要超過7G。

“這對手機存儲空間、耗電量等方面都帶來很大的技術挑战。”謝偉欽續稱,因此需要平衡。“相信到明年70億或130億大模型在端上跑起來時,可以慢慢成爲智能體,即一個專屬私人助理的狀態。”

顯然,7G內存基本已經接近中高端手機的標准,但同時也對手機性能帶來了極大擠壓。周圍指出,目前來看,130億規模大模型會是實現智能體能力更好的選擇,因其可以更好對復雜的任務進行拆解;當前70億模型在手機端側對處理文檔摘要等能力會有較好的呈現,但缺點是無法達到中台級別上下文理解的能力,也即無法完成多重復雜的任務。

這些都意味着,要真正迎接更爲智能化的端側手機體驗,在當前看,還有諸多挑战要解決。

此外,也有業界人士對記者表示,也許在未來,Transformer算法未必是唯一走向AGI的路途。這也考驗着廠商的綜合研判能力。

周圍對21世紀經濟報道記者表示,vivo旗下有專門進行理論研究的算法團隊,並跟進前沿進展,再轉化成工程實踐。

“Transformer算法和ChatGPT的形式,目前我們預判是最合理的路线。因此在這方面會全部投入。”他續稱,基於此會從ChatGPT的形式,進一步優化大模型面臨的難題。“2017年Transformer算法出現,在此之前的AI更多是基於小數據搭建模型,因此其能力有限,在Transformer之後,才真正可以壓縮超大型存儲數據。”

“所以算法層面需要持續改善,比如注意力相關算法等,需要逐步學習、調優。”周圍表示,此外是備受關注的算力,在外部環境變化下,的確大模型訓練會面臨算力不夠的問題。

智能手機普遍都將搭載自身體系下的AI大模型,這是否會成爲新的換機驅動力?

對此周圍認爲,對於部分場景中,大模型僅僅是增強已有模塊的能力部分,則屬於錦上添花。但在未來,AI大模型將具備顛覆式能力,一定會改變人們對手機的定義。

“未來的智能體,一定能夠成爲個人助理的形式。”他續稱,屆時其將顛覆手機上的產品。

這需要從更長遠的時間周期來看,當低至32M-200M主頻+32G內存,就可以跑通一個系統並且具備大模型能力時,未來更多輕量化的設備,諸如攝像頭、機器狗等都將具備智能表現。倘若再疊加腦機接口等新興技術進一步成熟,將豐富交互形式,令更多輕量級設備都具備成爲行政助理的能力。

從這個角度看,大模型將對手機市場帶來顛覆性的改變。“從大模型帶來巨大生產效率提升的角度看,我認爲大模型是一個歷史性、事件級的產物。當大模型做好後,也將必然獲得更多高端用戶的認可,所以我們也在高規格投入,來迎接人工智能世界的到來。”周圍如此表示。

21Tech

南財集團特色欄目

往期推薦

李佳琦們的“全網最低價”圍城

10-27

5G-A還有多遠?

10-27

華爲前三季度淨利潤率16%!爲何如此之高?

10-27

極兔,上市改變了什么?

10-27


追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:手機廠商競速大模型,是噱頭還是未來?

地址:https://www.breakthing.com/post/107897.html