前言——
2022第四屆“1024小鵬汽車科技日”如期而至,這一次小鵬的主題定為“從預見,到不止遇見”。通俗說:“進一寸有進一寸的歡喜”?;蛘哒f:“飯嘛,就得一口一口地去吃”。有關未來智能出行這場大變革,業界有很多的遠景暢想,也有很多的行動路線圖。但是,從來不會有誰的篤定便是真理。況且眼下已經過了這場出行變局初期的那種“蒙頭狂奔”,業界有了更多的反思與總結,前行路徑也愈發清晰。而對于小鵬來說,科技日亦是兌現日。
(資料圖片僅供參考)
怎么看小鵬
所謂科技日,其實可以做得很虛,就像玩票做元宇宙渲染也能獲得歡呼。而對于小鵬來說,直接硬核掏干貨。在智能駕駛、智能交互、智能機器人及飛行汽車四大維度,分享了小鵬汽車在未來出行領域的探索進程以及量產推進計劃。于是,這又引發業界討論,小鵬算車圈的人或者說造車的嗎?看上去它的車和產品自成一派,既不追隨誰也不談顛覆,說不如做,一路“小步快跑”。
尤其當下,智能駕駛風頭有些退潮,連巨頭們都覺得費勁啃不動,悄然間更強調講安全講環保講能耗的精準,更強調人機共駕而不是依靠智駕。相形之下,小鵬汽車卻不為所動,針對解決用戶痛點,達成行業階段目標有明確的執行進度條。這是小鵬的執拗呢,還是真如它所說“從預見,到遇見,到不止遇見”?
只是,這中間的挑戰與探索往往是最容易被忽略的部分。
小鵬做事情是在第一性原理的基礎上,更強調傾聽用戶聲音,去進階優化提升耗費用戶最多精力與時間痛點的解決方案。就像智能駕駛,當前人們對于輔助駕駛普遍感知不強,主要原因就是不夠好用。因此堅持量產為先的小鵬一直不停推出安全且好用的輔助駕駛功能。比如超級泊車、高速NGP等。而這次科技日發布的針對智能駕駛的最新落地方案,9月17日起就已在廣州開始試點,陸續推送給P5用戶。這也便是此次發布會的核心亮點之一:城市NGP智能導航輔助駕駛。
城市NGP
所謂城市NGP智能導航輔助駕駛(簡稱城市NGP),即用戶在導航上設置目的地并發起導航后,在可用城市道路實現A到B點的智能導航輔助駕駛。開啟城市NGP后,車輛能夠完成本車道巡航跟車、導航變道、超車變道、匯入/匯出道路、繞行靜止車輛或物體、規劃合適車速等動態駕駛任務,并能夠實現紅綠燈識別起停、自主打燈變道、路口左/右轉、環島通行、高架和隧道通行、避讓道路施工、避讓其他交通參與者(行人、騎行者)等典型城市路況交通行為。
數據表明,用戶的總用車里程中,城市道路占比高達71%,換成用車時長維度則可以占到90%。同時,每天僅有25%的用戶出行會通過高速,而城市道路則是100%。因此,城市場景不僅是用戶的高頻場景,也是剛需。為此,小鵬汽車的城市NGP及LCC增強版采用全新技術架構,包括定位、感知、預測、規控等方面能力全面提升。相比高速NGP,城市NGP的代碼量提升至6倍,感知模型數量提升至4倍,預測/規劃/控制相關代碼量提升至88倍。當前,城市NGP周用戶滲透率達到84%,里程滲透率達到63%,通行效率可接近人類司機的90%,每百公里被動接管僅0.6次??梢哉f,城市NGP已成為用戶日常通勤的最佳幫手。
全場景XNGP
城市場景的落地,只是智能輔助駕駛下半場的開局,小鵬的目標是步步進發實現全場景智能輔助駕駛。就像小鵬G9搭載的XNGP智能輔助駕駛系統,它是實現最終無人駕駛前,輔助駕駛的終極技術形態。它不僅無需高精地圖,全國各個城市和路段都能用,同時可覆蓋日常通勤,無縫連接高速、城市、地下停車場等各種場景,體驗不中斷。在高速、城快接近零接管,安全性、道路博弈能力和通行效率上,XNGP的體驗也將超過大部分司機。為了實現這一能力,小鵬汽車大幅升級硬件,采用508 TOP算力+雙激光雷達+800W像素高清攝像頭,并應用能力再次提升的軟件架構以及全閉環、自成長的AI和數據體系。
XNet 深度視覺神經網絡
面對諸如多少算力,裝多少激光雷達與攝像頭的智能駕駛內卷,小鵬用行動表明,這些新家伙可不是拿來當裝飾品點綴用的。玩真的背后,是明晰的技術迭代戰略。這其中,XNet 深度視覺神經網絡(簡稱XNet)尤為值得一提。
新版XNet和小鵬汽車的第一代視覺感知架構相比,利用神經網絡替代了繁復的工程師手寫邏輯,實現了端到端數據驅動算法。其次,是龐大的數據采集、標注、訓練和間距的部署工作,因為有了全新一代智能硬件的支撐和保障。XNet將多個攝像頭采集的數據,無論動態物體的4D信息以及靜態物體的3D信息進行融合標注,即小鵬汽車打造的全自動標注系統。簡單說,全自動標注意味著云端上傳數據量的極大增長,XNet 深度視覺標注效率是人工標注的45000倍,即XNet所需2000人年的標注量,現在僅需16.7天即可完成。這一數據量著實令人驚嘆,這也意味著輔助神經網絡的訓練正在時刻超速前進。
小鵬汽車還在烏蘭察布建成中國最大的自動駕駛智算中心“扶搖”。其基于阿里云智能計算平臺,算力可達600PFLOPS(每秒浮點運算60億億次)。在“扶搖”的加持下,自動駕駛模型訓練效率提升602倍。正由此,小鵬汽車通過定向采集的方式,通過海量車輛收集到大量訓練數據,在自動標注體系和扶搖的幫助下,快速進行修正。即使是一些非常少見的極端場景,也可以通過仿真系統,生成大量的同類型數據,進行快速迭代訓練。
通過定向采集和仿真結合,一年內累計解決1000個以上Corner Case(極限場景),高速NGP事故率降低95%。同時,每一行代碼改動,都需要經過行駛 5 千萬公里的仿真里程,5000+ 個核心模擬場景,挑戰17000+ 個專項模擬場景,確保功能迭代的可靠及正向演進。
全場景語音2.0
對于用戶而言,再強悍的系統智能化也不如前端界面簡單好用點。大道至簡,小鵬深知什么樣的產品才是好產品,就像語音交互是最直接解決用戶問題,是最深切擊中用戶購買欲的利器。
2020年小鵬汽車行業首創“全場景語音”功能技驚四座,成為行業首個全語音交互系統。而這一次科技日則帶來行業首個全車全時的語音交互功能——全場景語音2.0。它首次將MIMO多音區技術應用在車載語音系統,實現車載語音助手小P全程待命,車內多位乘員無需喚醒,多人同時人車語音對話。
有些東西或許市場上有的買,但是像小鵬這樣,除了自研無語音交互自研技術架構,根本無其它可能。因此,太難了;它要實現全車多路語音流并行處理,支持處理車內前后排四音區并發、端云一體、實時流式識別理解、并行指令等各種功能交織的語音交互請求;并可全車多路上下文理解,同時既維護單人對話和上下文管理,也兼容多人對話和上下文理解。不僅如此,還能在對話過程中即使有多路對話需識別情況下,仍能保證準確率不下降,并解決多發聲通道、四路語音交互之間的回復沖突,讓用戶體驗更加好。
此外,小鵬汽車也是行業首家自研底層語音包的車企,包括聲學信號處理、本地語音識別、在線語音識別及語音喚醒等方面,解決更高復雜度的語音問題,做到更高難度的聽得到聽得懂。如回聲消除最多可支持30dB,識別準確率高達97%,錯誤率相比非基礎能力自研,標準安靜場景降低7.7%、中英文混合場景降低7.16%、噪聲環境場景降低36.79%、帶地域口音場景降低33.84%。同時,自研語音基礎能力也讓語音的CPU使用率降低65.9%,內存使用降低42.3%,優化工程能力的同時實現快速迭代、用戶隱私安全保障,降低數據成本。
未來小鵬汽車的語音能力還將向著更接近人人交互的方向進化:讓語音助手可聽音、察言、觀色,實現無拘無束地輕松交流;可理解、學習、推理、記憶,做更懂用戶的鵬友;可感知、共情、表達,成為陪伴用戶全場景的可靠伙伴。
“自定義你的智能汽車”
最后,再來看最為貼近用戶接觸空間的小鵬智能座艙自定義能力。它不是簡單做做調控氛圍燈,它是真正的底層開放,讓用戶可以定義自己的智能汽車。它提供全時在線守護,可以遠程操控智能場景,例如用戶不在車上時,車輛依然可根據自身感知能力,繼續執行用戶定義的場景;多個場景之間,可根據上一個場景的執行結果,并主動判斷串聯后續場景,滿足用戶整個行程周期的全時需求;普通用戶可直接選擇自己喜歡的場景,一鍵開啟全程服務,并支持社區、社媒傳播和跨車型繼承;極客用戶更可深度參與共創,一鍵串聯開拓想象。
總結——
小鵬汽車作為“未來出行探索者”,從不會只為了噱頭打造產品,而是希望通過一個個功能的開發落地,真正用迭代來為用戶創造小確信。讓用戶與自己同行,一起“從預見,到遇見,到不止遇見”。