從看見到落地,小鵬技術穿越新周期
1年前

撰文 | 王   潘  

編輯 | 吳先之

無論過去廠商們說得多么好聽,經常伴隨“未來出行”的詞匯始終是“藍圖”,而藍圖是用來看的,無法觸摸。

去年“1024小鵬汽車科技日”上的Slogan“智能爲先,探索無界”,即是用“探索”強調“看”的屬性。

今年“1024小鵬汽車科技日”的Slogan變爲“從預見,到不止遇見”,Slogan的變化表明何小鵬今年打算讓用戶“摸一摸”。而科技日作爲觀察小鵬乃至整個行業技術發展的窗口,輔助駕駛能不能進城,語音智能到底有沒有治好病,以及其他新物種有沒有進化,都是業內關注的焦點。

“砍掉”諸多修飾詞與動畫,會上小鵬共帶來了四個方向的進展,包括輔助駕駛系統升級、座艙智能化、智能機器馬以及第六代飛行汽車。

小鵬第二代輔助駕駛系統XNGP,相較第一代智能輔助駕駛系統XPILOT最大差異在於:從單一場景走向了全場景。座艙方面,除了語音交互的靈敏與精准度有相應提高外,小鵬所展現的“用戶自定義”功能,將讓座艙設計由“猜你要什么”,轉變爲“你說了算”。

關於XNGP,小鵬汽車自動駕駛副總裁吳新宙在回答幾位媒體同行靈魂拷問時披露了更多信息:

此外,智能機器狗與第六代飛行汽車眼下距離商業化還有一段距離,真正重要的問題是汽車智能化之後,相關企業將技術平移至其他場景之中,這個過程將讓主機廠撕掉“藍領”標籤,從而真正變成技術的創新者。

從上路到進“城”

標准化道路、足夠多的激光雷達、強大的算法,眼下輔助駕駛已經解決了“上路”的問題,可是卻被一道道或明或暗的路障擋住了入“城”的道路。

數據表明,輔助駕駛上路不進城,就根本算不上落地。從用戶的總用車裏程上看,城市道路佔到71%,用車時長更是達到90%。而頻率上,司機100%會經過城市道路,僅有25%的用戶會經過輔助駕駛的“樂園”——高速路。

換言之,不進城的輔助駕駛實際是一個小衆市場。

不進城的原因很簡單,一個字“難”。且不論復雜的城市道路,光是車輛密度、三輪車和工程車這類異形車,以及不按套路行走的路人,都在輔助駕駛進城的道路上,設置了一道道隱性的路障。

更遑論這些年大規模城市改造,還存在許多實體路障。光是小鵬汽車的大本營——廣州,截至2022年9月底,當地市政公示的佔道施工就有500處,平均每天新增兩起。

小鵬汽車自動駕駛中心感知首席工程師Patrick提到,高速NGP已經解決了車輛與行人識別,然而“在城市裏,車輛和行人密集出現,互相遮擋的場景就會比較多,以及行人和車輛的運動軌跡也更加多樣”。因此,小鵬針對密集景物體檢測,廢棄了NGP的物體檢測的神經網絡架構,重新爲城市NGP搭建新型神經網絡。

事實上,NGP上半場的着力點在於解決高速、城市、停車場等單點場景的行駛問題,比如小鵬第一代智能輔助駕駛系統XPILOT。XPILOT相當於可以做數學,可以做語文、也可以做英語題,卻沒有綜合能力,完成場景切換。

城市場景落地,只是拉开了智能輔助駕駛下半場的帷幕,小鵬G9所搭載的第二代輔助駕駛系統XNGP,打通了高速、城市、停車場全場景,無論有圖無圖均可運行,並能實現各場景連通的能力,全場景智能輔助駕駛系統是實現無人駕駛前,輔助駕駛的終極技術形態。

所謂全場景智能輔助駕駛系統,實際上是用戶在普通地圖發起導航後,車輛從起點的停車位到終點停車位全程使用輔助駕駛。無論中間經歷了高速還是城市道路,亦或是停車場,對於用戶而言,只是從P檔开始到P檔結束。

在命名上一位小鵬知情人士提到,“X代表X-PENG(小鵬),表示全場景,保留NGP不僅可以延續這個已經被廣泛認知的名字,還因爲XNGP的能力也需要設定普通的地圖導航再實現激活。”

衆所周知,小鵬的長期战略是“以視覺爲主,激光雷達爲輔”,所以真正支撐XNGP的其實是XNet深度視覺神經網絡。

Patrick甚至認爲,小鵬在技術上的護城河有二,一個是完全理解和把控硬件,能夠設計出更加高效的網絡架構。這主要得益於小鵬的工程化能力,讓XNet所需的122%的Orin-X算力,優化後僅需9%,同時也爲XNet帶來持續迭代能力。

另一個則是數據閉環的方式,能夠讓其找到源源不斷的弱勢場景,反哺道路模型訓練,從而讓視覺感知能力不斷進化。比如,城市場景中存在大量corner case,XNGP通過車端採集回流長尾數據的方式解決這一問題。數據閉環的打法也是小鵬汽車全棧自研的重大優勢之一。

在數據標注效率上,XNet的起點更高。過去業內普遍採用人工標注的方式,既費力,而且還漏洞百出,小鵬所建立的全自動標注系統,是人工標注效率的45000倍。簡單來說,就是XNet所需的標注量,如果是人工需要2000人/年,而全自動標注系統只需要16.7天。

8月2日,小鵬在烏蘭察布建成中國最大的自動駕駛智算中心“扶搖”,用於自動駕駛模型訓練。基於阿裏雲智能計算平台,“扶搖”的算力可達600PFLOPS(每秒浮點運算60億億次),將小鵬汽車自動駕駛核心模型的訓練速度提升了近602倍。

技術能力的突破直接拓展了小鵬的B端潛能。據了解,目前按照廣州市智能網聯汽車自動駕駛功能測試的相關要求,已成功通過了自動駕駛封閉場地測試。

座艙定義人,到人定義座艙

“1024科技日”上,小鵬座艙亦有新的變化,包括G9全場景語音2.0與小鵬智能場景。

座艙交互的衡量標准有且只有一個,足夠絲滑——既快且准。

城市NGP的HMI(人機交互界面)一般分爲:視覺(SR)、聽覺(語音播報)、觸覺(安全帶)、加減速的感官感受。其中SR與智能輔助駕駛配套,爲之提供環境模擬。上述四種交互方式無非是讓用戶直觀清晰地了解到車現在處於什么狀態,未來會做什么動作,以及篩選有用信息。

針對“快”,小鵬全場景語音2.0響應速度達到毫秒級,更貼近真人的溝通,說到即做到。喚醒詞到界面反饋270ms,小P語音反饋小於700ms,語音命令到執行動作的延時可以到1秒以內,三項目前皆爲業內最快。

過去的語音交互中,人是需要主動適應車機的,講完一句話需要等待識別與生成結果,在這個過程中車機處於“不聽人話”的狀態。全場景2.0的流式理解實現邊聽邊想邊做邊答,在线請求更快。G9還利用本地算力實現了本地對話,在弱網、無網條件下也可穩定控制600多項車輛功能。

此外,單向度的只能接受线性對話邏輯的車機交互體驗,也因爲新版本而產生質變。據了解,用戶一句話發出4個指令時,小P能瞬間執行,如遇相互有影響的命令,會根據是執行機構衝突、邏輯矛盾、車型不支持等多種條件給出合理的執行時機和回復語,並且語音、語義上少了生硬感。

在喚醒方面,因爲全時對話功能,所以無需使用“喚醒詞”,即便出現口音,或者語義指向不明確的情況,用戶只需叫一聲“小P”,便會復盤之前對話,給出對應反饋。

車內語音交互存在一個BUG——很多時候車內不止一張嘴,全場景語音2.0首次引入了MIMO多音區技術應用在車載語音系統,同時處理來自車內四個音區的的音頻信號,並分離出其中的有效語音信號,形成4路獨立音頻。

MIMO多音區技術讓任何一個或多個音區有用戶對小P說話時,小P不但可准確定位音區,還能聽清不同人的說話內容,從而服務車內四位用戶能力。

輸出方面,主駕座椅靠背音響、副駕藍牙耳機、與全車音響共同形成車內多路語音輸出通道。加上跨音區的上下文對話(主駕說“打开按摩”,副駕說“俺也一樣”)、多音區權限控制(防止不同音區誤操作)、多人拒識准確率提升等,多項功能升級後,小鵬座艙語音交互能力已大幅領先於同行。

從上述迭代的信息可以看到,全場景語音2.0最大的特點是對軟硬兩端全方位的整合。

小鵬全棧自研第二代語音架構,一度被外界認爲是追本逐末的事情,按照行業通行做法都是採用第三方解決方案。可是小鵬不僅自研,而且還是從語音基礎這個原點开始自研。

從前文可以看到,第二代智能輔助駕駛平台XNGP與第二代語音架構,都是新事物,特別是XNGP,就連對標的產品都沒有。而且,供應商面對這種商業前景不確定的技術,匹配興趣不大。此外,技術的調試多、迭代需求鏈條長,內部打通拉齊的周期顯然要比外部短得多。

在大會上,小鵬智能場景(X-Combo)解鎖了智能座艙的自定義能力,开放了整車感知和執行能力原子化,讓用戶可以自定義汽車的諸多功能。而可運營、可編輯、可共享的特點,提供共創、社媒傳播乃至跨車繼承等功能。

相較XNGP與第二代語音交互架構,X-Combo可能會引發車機开發從定義用戶需求,向用戶自定義轉變。車企只提供平台與工具,剩下的一切交給用戶自行搭建,哪怕用戶無暇,也可以從共創中引用他人方案。

車企摘掉“藍領”帽子

今年“1024小鵬汽車科技日”上,智能生態方面亦有迭代,包括智能機器人與第六代智能飛行汽車。

大量自動駕駛、AI技術、人機交互等復用到新物種上後,應該不會有人再去問“爲什么小鵬要造馬和飛車”的問題了。

比如智能機器人同樣需要緊湊高效的“三電”,汽車動力技術的賦能有利於機器人提高續航、成本、電池壽命與電池安全。飛行汽車的尺寸和常規汽車相當,能夠在开放道路自由行駛。通過折疊變形系統,進行路行和飛行模式的切換,其中涉及到路行的技術,直接可以復用智能車技術。

事實上,透過“1024小鵬汽車科技日”應該看到,主機廠的角色正在悄然改變。

傳統意義上,由於離散制造的原因,主機廠大多扮演技術集成者的角色,這導致他們並非技術創新的源頭,而是基於成本角度,做技術創新的選擇題。創新本身來自於產業鏈,例如像博世、採埃孚、麥格納等Tier 1,或者更基礎的零部件供應商。

進入智能化階段後,工業制造與技術开發高度貼合,單純的技術整合者根本無力應對挑战,客觀上也倒逼車企補足技術能力。

於是,我們看到新勢力拓展到智能化與新物種,例如蔚來造手機、小鵬機器人等,而一部分先知先覺的傳統主機廠也在裂變,比如長城、比亞迪、上汽孵化屬於自己的自動駕駛、車機系統、智能座艙供應商。即便是車間中的衝壓、焊接、塗裝、總裝四大環節,隨着企業數字化與軟硬一體化進程,都將全方位考驗主機廠的技術能力。

“自動駕駛技術有99%來自AI”這句話已經表明,以技術爲導向的車生態才是下一代車企的最終形態,而全棧自研,其實是產業自我演化的體現,例如主機廠從技術的整合者,正在向技術的創造者與輸出者轉變。如同科技日上出現的智能機器狗,亦或是第六代飛行汽車,許多技術其實早已在汽車領域落地。

新技術容易抓住人們的眼球,反倒是技術深度重構產業往往被人忽視。

細心的人發現,XNet深度視覺神經網絡在XNGP中扮演着舉足輕重的作用,其持續、快速迭代的一個原因其實來自於標注方式的變化。相比小鵬汽車的第一代視覺感知架構,XNet利用神經網絡替代了繁復的手寫邏輯,重構了數據採集、標注、訓練和間距的部署工作。如果沒有智能化提升效率,那么再好的藍圖都將繼續停留在“看”的層面。

因此,在“1024小鵬汽車科技日”上既要看新物種,同時也要看到主機廠們也在活成新物種的趨勢。

追加內容

本文作者可以追加內容哦 !

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。



標題:從看見到落地,小鵬技術穿越新周期

地址:https://www.breakthing.com/post/25642.html