《計算機行業智能駕駛技術的當下與未來:頭部玩家的探索與啟示-250524(55頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業智能駕駛技術的當下與未來:頭部玩家的探索與啟示-250524(55頁).pdf(55頁珍藏版)》請在三個皮匠報告上搜索。
1、證券研究報告|行業專題研究打造極致專業與效率打造極致專業與效率首席分析師首席分析師 夏君夏君分析師分析師 劉玲劉玲執業證書編號:執業證書編號:S0680519100004執業證書編號:執業證書編號:S0680524070003郵箱:郵箱:郵箱:郵箱:智能駕駛技術的當下與未來:智能駕駛技術的當下與未來:頭部玩家的探索與啟示頭部玩家的探索與啟示年 月 日2025 05 24 1、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”1.2 從“聾啞司機”到
2、“司機助理”2、硬件側:比人看得清、比人想得遠、比人反應快、硬件側:比人看得清、比人想得遠、比人反應快2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠2.3 執行層:線控趨勢已成,比人反應快目錄目錄23 智駕要普及智駕要普及,光光“模仿人類模仿人類”不夠不夠,必須必須“超越人類超越人類”第一個問題:智駕能否普及第一個問題:智駕能否普及?人類會不會永遠不敢把生命交給人類會不會永遠不敢把生命交給智能駕駛智能駕駛?或者滲透率的上限很低或者滲透率的上限很低?Eg.一個關于“電梯”發展早期的例子:從工業革命時期開始,升降機就已經可以實現上下
3、移動物體或人的基本功能,但直到紐約在1853-1854年舉辦水晶宮世界博覽會后,升降機才被人們視為可以每天安全使用的工具。Elisha Graves Otis 在博覽會上以大膽時尚的方式,推出其安全制動裝置。他將平臺式升降機升至 10 米高度,然后由其助手剪斷電梯繩索。平臺并沒有墜到地面,他向目瞪口呆的觀眾鞠躬,并宣布“安然無恙!”由此可見,只有技術足夠成熟時只有技術足夠成熟時,人類才會放心將生命交給技術人類才會放心將生命交給技術。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”1835年年1835年英國出現了蒸汽機驅動的升降機,它通過皮帶傳動和蝸輪蝸桿減速裝置驅動,主要用于垂
4、直運送貨物。1845年,英國人湯姆遜制成了世界上第一臺液壓升降機。當時由于升降機功能不夠完當時由于升降機功能不夠完善,難以保障安全,故較少善,難以保障安全,故較少用于載人。用于載人。1852年,美國紐約楊可斯奧的斯的機械工程師(ElishaGravesOtis),在展覽會上向公眾展示了他的發明,從此宣告了電梯的誕生,也打消了人們長期對升降機安全性的質疑。1857年,奧的斯公司在紐約安裝了世界第一臺客運升降機,標志著電梯開始用于載人。1880s后,載人升降機進入電力時代。伴隨著技術的逐步成熟,電梯更加普及。1845年年1852年年1857年年1880s后后圖表:Elisha Graves Oti
5、s展示電梯安全裝置資料來源:梯視達、邢臺捷逸達電梯銷售有限公司,國盛證券研究所4 智駕要普及智駕要普及,光光“模仿人類模仿人類”不夠不夠,必須必須“超越人類超越人類”第二個問題:靠模仿人類第二個問題:靠模仿人類,當智駕模型達到人類司機的優秀水平時當智駕模型達到人類司機的優秀水平時,能否普及能否普及?A:尤其是涉及到人身安全尤其是涉及到人身安全,人性對人性對“自己自己”和對和對“技術技術”的能力存在的能力存在“雙標雙標”。只有遠超出人類駕駛水平的只有遠超出人類駕駛水平的智駕技術智駕技術,才能夠大規模普及才能夠大規模普及。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”01鬼探頭撞
6、車場景的雙標鬼探頭撞車場景的雙標02財產管理的雙標財產管理的雙標想象一下,如果我們自己我們自己開車開車時如果出現鬼探頭撞車,我們是什么心態?如果是滴滴司機或自動駕滴滴司機或自動駕駛車輛駛車輛開,出現鬼探頭撞車,我們會否輕易原諒?想象一下,如果我們我們自己自己理財虧了錢,我們是什么心態?如果是托付給其他人托付給其他人幫我們理財,虧了錢,我們是什么心態?(自動駕駛技術能力(自動駕駛技術能力-人類駕駛能力)人類駕駛能力)人類對生命謹慎的程度保險的完善性政策的支持度=自動駕駛技術的普及性自動駕駛技術的普及性(滲透率)注:公式僅提供一定的參考意義,不代表任何具體數據量化的意義。5 強化學習帶來超越人類的
7、潛力強化學習帶來超越人類的潛力2017年,AlphaGo通過監督學習+強化學習,戰勝圍棋選手柯潔,成為世界第一。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:AlphaGo在圍棋比賽中戰勝人類圖表:地平線認為2035年智能駕駛將實現超越人類的駕駛水平資料來源:每日經濟新聞、地平線機器人發布會、中機創,國盛證券研究所6 狹義的“端到端”狹義的“端到端”,是一種模仿學習思路,是一種模仿學習思路通過學習“傳感器數據”與“人類駕駛軌跡”的海量對照,讓車端模型能做到輸入傳感器數據后,輸出合理的駕駛軌跡。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:端到端自
8、動駕駛路線圖資料來源:End-to-end Autonomous Driving:Challenges and Frontiers(Li Chen等,2018),國盛證券研究所7 廣義的“端到端”,既有“模仿學習”、又有“強化學習”廣義的“端到端”,既有“模仿學習”、又有“強化學習”“端到端”系統的三種范式:行為克?。7聦W習框架);逆最優控制(模仿學習框架);在線強化學習(強化學習框架)。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:端到端自動駕駛三種范式資料來源:End-to-end Autonomous Driving:Challenges and Frontie
9、rs(Li Chen等,2018),國盛證券研究所8“超越人類”需要“強化學習”,于是世界模型被引入自動駕駛領域“超越人類”需要“強化學習”,于是世界模型被引入自動駕駛領域眾多車企和供應商紛紛公開提出引入“世界模型”,包括特斯拉、英偉達、蔚來、理想、地平線、商湯、元戎啟行、Momenta、小鵬1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”資料來源:各公司官網、各公司公告,國盛證券研究所91.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”自動駕駛領域,世界模型的價值自動駕駛領域,世界模型的價值世界模型生成的視頻交給自動駕駛模型,規劃執行的結果作為世界模型未來預測的
10、條件,再通過世界模型繼續生成新的數據,進行閉環仿真的測試。2、閉環仿真測試、閉環仿真測試世界模型通常采用自監督的訓練模式,這種方式可以利用大量的無標注數據進行訓練,從而可以作為感知決策模型的foundationmodel來提升自動駕駛模型的泛化能力。4、foundation model對抗樣本是自動駕駛模型的一個安全隱患,利用世界模型,采用同一場景變換condition的方式或者黑盒攻擊方式,拿到模型失效的且逼真的樣本,用于提升自動駕駛模型的安全性。3、對抗樣本對抗樣本世界模型可以生成包含行人、交通和路況的新場景,填補訓練中缺失的數據。1、長尾數據生成、長尾數據生成資料來源:自動駕駛之心,國盛
11、證券研究所10 自動駕駛世界模型發展時間表自動駕駛世界模型發展時間表1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:自動駕駛世界模型發展時間表資料來源:World Models for Autonomous Driving:An Initial Survey(Yanchen Guan等,2024),國盛證券研究所11 業界頭部玩家的探索業界頭部玩家的探索特斯拉特斯拉2023 年,特斯拉自動駕駛負責人年,特斯拉自動駕駛負責人Ashok Elluswamy在在 CVPR 上介紹了其正在打造的上介紹了其正在打造的“通用世界模型”?!巴ㄓ檬澜缒P汀?。該模型可以通過過往的視頻片段和
12、行動提示,生成該模型可以通過過往的視頻片段和行動提示,生成“可能的未來”“可能的未來”的全新視頻的全新視頻。其基礎架構由多臺攝像機的視頻流輸入,匯集到一個大型 Transformer 塊中,通過空間注意力和幾何模型等形成特征并進行預測,可用于預測占用率、體素未來的流動情況以及車道等駕駛所需的任務。2024年2月,在OpenAI官宣Sora之后不久,埃隆 馬斯克發帖稱:“特斯拉在大約一年前就能以精確的物理生成真實世界的視頻?!?.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:世界模型同時預測了車輛周圍所有八個攝像頭的情況圖表:直行預測和右轉預測例子資料來源:鞭牛士,國盛證券研
13、究所121.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”業界頭部玩家的探索業界頭部玩家的探索小鵬汽車小鵬汽車2024年下半年,小鵬汽車已開始面向L4級別的自動駕駛研發全新的“AI大腦”,即小鵬世界基座模型。小鵬研發團隊利用優質自動駕駛訓練數據,先后開發了多個尺寸的基座模型,目前已經著手推進72B(72Billion,也即720億)超大規模參數世界基座模型的研發,參數量是主流 VLA 模型 的35 倍左右。為了開發小鵬世界基座模型,小鵬汽車打造了一座“云端模型工廠”,工廠“車間”涵蓋基座模型預訓練和后訓練(強化學習訓練)、模型蒸餾、車端模型預訓練到部署上車的完整生產鏈路。圖表:小
14、鵬著手推進72B超大模型參數世界基座模型圖表:小鵬的“云端模型工廠”架構資料來源:小鵬汽車官方微信公眾號,國盛證券研究所131.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”業界頭部玩家的探索業界頭部玩家的探索理想汽車理想汽車2025年1月,理想汽車自動駕駛研發副總裁朗咸朋在第四屆全球自動駕駛峰會上指出:“我們的世界模型不僅用于仿真評測,還通過強化學習框架生成合成數據,完善強化學習的閉環過程?!?025年3月18日,理想汽車自動駕駛技術研發負責人賈鵬在NVIDIA GTC 2025分享了對于下一代自動駕駛技術MindVLA的最新思考和進展。MindVLA基于自研的重建+生成云端統
15、一世界模型,深度融合重建模型的三維場景還原能力與生成模型的新視角補全,以及未見視角預測能力,構建接近真實世界的仿真環境。圖表:理想的物理世界AI框架資料來源:理想汽車官方公眾號,國盛證券研究所141.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”業界頭部玩家的探索業界頭部玩家的探索理想汽車理想汽車2025年5月7日,李想在AI Talk第二季上分享道:“強化學習分成兩個部分:第一部分先做第一部分先做RLHF,帶有人類反饋的。當人類會接管時,包括人類的一些習慣,來做帶有人類反饋的強化訓練。安全對齊都在這個環節完成,除了遵守交通規則,還要遵守中國的駕駛習慣,開車習慣要融入社會。第二部
16、分是純粹的第二部分是純粹的RL,用世界模型生成的數據來做訓練用世界模型生成的數據來做訓練。目的是開得比人類更好,中間不給人類反饋,只給一個結果:從A點到B點開過去。有三類訓練要求:1)通過G值(加速度數值)判斷舒適性,給舒適性反饋;2)做碰撞反饋,如果碰撞強化就沒完成;3)交通規則反饋,如果違反交通規則就沒完成。通過舒適、交通規則和碰撞事故三個維度來做強化訓練?!眻D表:理想VLA司機大模型訓練與推理過程圖表:第三階段輔助駕駛強化學習資料來源:理想汽車AI Talk第二季、六合商業研選,國盛證券研究所15 業界頭部玩家的探索業界頭部玩家的探索小馬智行小馬智行小馬智行聯合創始人、CTO樓天城表示,
17、世界模型是車端模型的 factory(工廠),L4 自動駕駛技術的真正差別在“工廠”的精度,因為它會決定它所生產的產品,即車端模型的上限。通過 AI 生成技術,構造訓練車端模型的環境,這包括道路情況,路上其他車和人的行為,還有各主體間的交互,然后再用強化學習方法,讓車端系統在這個訓練環境里自己進化。小馬自研的“世界模型(PonyWorld)+虛擬司機(Virtual Driver)”是全無人駕駛實現規模部署的關鍵技術?!笆澜缒P汀蓖ㄟ^構建高真實性的訓練環境和行為評估系統,每周可生成超過100億英里的自動駕駛數據集?!疤摂M司機”系統在世界模型中持續自我進化,已實現在更小算力、量產化硬件下超越人類
18、水準的駕駛表現,特別在極端低概率場景應對能力上取得了突破性進展。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:小馬智行認為L4自動駕駛需要強化學習圖表:小馬智行自研世界模型+虛擬司機資料來源:晚點、金融界、智駕網,國盛證券研究所16 業界頭部玩家的探索業界頭部玩家的探索MomentaMomenta在2024年上半年,實現了量產的一段式端到端大模型,基于模仿學習,并在2024年發布。2025年的目標是實現基于強化年的目標是實現基于強化學 習 的 一 段 式 端 到 端 大 模 型學 習 的 一 段 式 端 到 端 大 模 型,也 就 是也 就 是Momenta的第六代飛輪
19、飛輪大模型的第六代飛輪飛輪大模型。Momenta在在2025上海車展宣布上海車展宣布,首批車端首批車端無人的無人的Robotaxi預計將于預計將于2025年底開始試年底開始試運營運營。1.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”圖表:Momenta今年要實現基于強化學習的一段式端到端資料來源:Momenta知乎官方賬號,國盛證券研究所171.1 從“模仿人類”到“超越人類”從“模仿人類”到“超越人類”業界頭部玩家的探索業界頭部玩家的探索地平線地平線地平線提出了“交互式博弈”,核心在于通過生成數據驅動實現模擬學習和強化學習。為了避免機器對數據的重復模仿,它必須要學會主動理解數
20、據。這時候世界模型就承擔了駕駛世界觀的作用。通過強化學習,訓練數據量的需求降低80%、與基于模仿學習的方法相比碰撞率降低3倍、較其他模型規劃準確率大幅提升25.5%。圖表:地平線面向量產的端到端世界模型圖表:地平線是最早提出采用強化學習的智能駕駛公司之一資料來源:36氪、地平線高階智駕產品發布會、車東西,國盛證券研究所18 自動駕駛技術超越人類智駕的時間表自動駕駛技術超越人類智駕的時間表價值拐點并不遙遠價值拐點并不遙遠特斯拉特斯拉:計劃在2025年年6月月將Robotaxi引入奧斯汀,依賴原有Model Y車型;大規模完全自動駕駛預計將在2026年年中年年中左右實現。(2025Q1財報會)小鵬
21、小鵬:將在2025年年中年年中推出V6全新大版,即準L3級別的高階自動駕駛技術,這標志著小鵬自動駕駛能力將全面超越FSD V13。到2025年底年底,小鵬計劃推出真正的L3級別自動駕駛軟件(2025.02何小鵬微博);到2026年年還將規模量產支持L4低速場景無人駕駛的車型。(2024Q4財報會)目前,小鵬汽車用于訓練基座模型的視頻數據量高達2000萬clips,這一數字今年將增加到2億clips。(2025.4 香港之夜)理想理想:理想在AI talk上表示,要在2025年年實現L3級別智能駕駛,三年內三年內進入L4級別。(2024.12 AI Talk)華為華為:華為智能駕駛產品線總裁李文
22、廣表示,高速L3級別的自動駕駛技術有望在2025年年在部分城市率先啟動試點商用,到2026年年這項技術有望實現更大范圍的規?;虡I應用;華為的目標是在2027年年實現城區L4級別自動駕駛技術的規?;逃?,而在無人干線物流領域,這一時間點則被定在了2028年年。Momenta:首批車端無人的Robotaxi將于2025年年底年年底開始試運營。小馬智行小馬智行:2025年4 月上海車展發布的第七代車規級自動駕駛系統方案實現 Robotaxi 的 100%車規級量產。2025年年,小馬智行將全力沖刺Robotaxi的大規模商業化,向外界證明L4自動駕駛大規模商業化的可行性。1.1 從“模仿人類”到“
23、超越人類”從“模仿人類”到“超越人類”2025年年6月月特斯拉計劃將Robotaxi引入奧斯汀小 馬 智 行將 全 力沖刺Robotaxi的大規模商業化Momenta表示首批車端無人的Robotaxi將于2025年底開始試運營小鵬計劃規模量產支持L4低速場景無人駕駛的車型理想在2024.12的AI Talk上表示,有希望在三年內進入L4級別;華為目標在2027年實現城區L4級別自動駕駛技術的規?;逃?025年年2025年年底年年底2026年年2027年年資料來源:特斯拉2025Q1財報會、彭博、36氪、新浪、ITBEAR科技資訊、Momenta官網、騰訊云,國盛證券研究所目錄目錄19 1、軟
24、件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”1.1 從“模仿人類”到“超越人類”1.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”2、硬件側:比人看得清、比人想得遠、比人反應快、硬件側:比人看得清、比人想得遠、比人反應快2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠2.3 執行層:線控趨勢已成,比人反應快201.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被
25、引入智能駕駛領域EMMA(谷歌旗下谷歌旗下Waymo)事實上,VLA模型最早見于機器人行業。2023年7月28日,谷歌 DeepMind推出了全球首個控制機器人的視覺語言動作(VLA)模型RT-2。2024年10月底,谷歌旗下自動駕駛公司Waymo推出了一個基于端到端的自動駕駛多模態模型EMMA。圖表:DeepMind的RT-2概述圖表:Waymo的自動駕駛多模態模型EMMA圖示資料來源:EMMA:End-to-End Multimodal Model for Autonomous Driving(Jyh-Jing Hwang等,2024)、RT-2:Vision-Language-Actio
26、n Models Transfer Web Knowledge toRobotic Control(Anthony Brohan等,2023),國盛證券研究所211.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域DiLu,又稱的盧又稱的盧(上海人工智能實驗室上海人工智能實驗室、華東師范大學華東師范大學、香港中文大學香港中文大學)該框架通過整合利用大語言模型(LLM),實現基于常識的決策和持續的駕駛經驗累積。該框架由四個核心模塊組成:環境(Environment)、推理(Reasoning)、反思(Refle
27、ction)和記憶(Memory)。下面左圖詳細展示了DiLu框架的工作流程和各模塊之間的交互方式,包括環境感知、推理決策生成、決策的反思評估,以及記憶的更新和累積。圖表:DiLu的框架圖表:DiLu的推理模塊資料來源:Dilu:A Knowledge-Driven Approach to Autonomous Driving with Large Language Models(Licheng Wen等,2024),國盛證券研究所221.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域LINGO-2(Way
28、ve)2024年4月17日,英國自動駕駛技術公司Wayve宣布推出閉環駕駛模型LINGO-2,可將視覺、語言和動作聯系起來,幫助解釋和確定駕駛行為。LINGO-2為自動駕駛體驗開辟全新的控制和定制維度,是首個在公共道路上進行測試的視覺語言動作模型(VLAM)。在右圖的例子中,Wayve展示了LINGO-2駕駛通過十字路口。當我們問模型:“交通燈是什么顏色的?”它正確地回答:“交通燈是綠色的?!眻D表:LINGO-2框架圖表:LINGO-2和用戶交互案例資料來源:Wayve官網,國盛證券研究所23 語言模型、多模態模型被引入智能駕駛領域語言模型、多模態模型被引入智能駕駛領域SENNA(華中科技大學
29、、地平線等)(華中科技大學、地平線等)華中科技大學、地平線將多模態大模型和模塊化的端到端模型相結合,提出了Senna算法框架1.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”圖表:SENNA的設計思路不同于以往資料來源:Senna:Bridging Large Vision-Language Models and End-to-End Autonomous Driving(Bo Jiang等,2024),國盛證券研究所241.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型、多模態模型被引入智能駕駛領域語言模型、多模態模型被引入智能駕駛領域SENNA(華中科技
30、大學、地平線等)(華中科技大學、地平線等)Senna包含兩個模塊,一個駕駛多模態大模型(Senna-VLM)和一個端到端模型(Senna-E2E)。圖表:SENNA的整體架構資料來源:Senna:Bridging Large Vision-Language Models and End-to-End Autonomous Driving(Bo Jiang等,2024),國盛證券研究所251.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型、多模態模型被引入智能駕駛領域語言模型、多模態模型被引入智能駕駛領域SENNA(華中科技大學、地平線等)(華中科技大學、地平線等)SENN
31、A是目前開環測試端到端智能駕駛全球第一名。數據顯示,基于nuScnese數據集測得3秒鐘平均L2軌跡誤差距離和3秒鐘平均碰撞率都很小。圖表:nuScenes驗證數據集上的軌跡規劃結果*denotes using ego status features as input.In the experiments on thenuScenes dataset,we incorporate Senna with VAD for a fair comparison.denotes initialization using pre-trained weights on the DriveX dataset.
32、圖表:DriveX驗證數據集上的高級規劃和場景描述評估結果資料來源:Senna:Bridging Large Vision-Language Models and End-to-End Autonomous Driving(Bo Jiang等,2024),國盛證券研究所261.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域DriveVLM(清華大學清華大學、理想汽車理想汽車)DriveVLM是在傳統的自動駕駛系統上,增加了大視覺語言模型(VLM)的能力。由于VLM在視覺理解和推理方面的能力突出,所以結合該大
33、模型能力后,DriveVLM不僅具備基本的自動駕駛能力,而且還能夠理解輸入的圖像信息,并作出對應駕駛決策。攝像頭輸入的圖像序列先由視覺編碼器進行處理,生成圖像tokens,并通過自注意力機制捕捉其中的重要特征,與VLM的組成部分大語言模型進行對齊。隨 后,大 語 言 模 型 通 過 思 維 鏈(chain-of-thought,CoT)進行推理,主要包含三個模塊,場景描述,場景分析和分層規劃。圖表:DriveVLM包含三個模塊資料來源:DriveVLM:The Convergence of Autonomous Driving and Large Vision-Language Models(
34、Xiaoyu Tian等,2024),國盛證券研究所271.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域DriveVLM(清華大學清華大學、理想汽車理想汽車)場景一:一處城市開放道路,沒有明顯車道線,左邊是對向車輛,比較擁擠;前方有一輛三輪車,路中央還有一位交警在指揮交通。DriveVLM識別出這位交警在指揮左邊道路的交通情況,并且由于前面的三輪車正在緩慢行駛,系統作出“緩慢直線行駛”的決策。并且解釋道,這么做是因為需要和前方及兩側車輛保持安全距離,所以需要緩慢直行。圖表:DriveVLM場景展示(一)圖
35、表:DriveVLM場景一決策過程資料來源:DriveVLM:The Convergence of Autonomous Driving and Large Vision-Language Models(Xiaoyu Tian等,2024),國盛證券研究所281.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域DriveVLM(清華大學清華大學、理想汽車理想汽車)場景二:陰雨天的城市道路,車輛準備向右前方道路行駛,但這條路上有一行人騎著電動車迎面而來。DriveVLM識別出電動自行車位于車輛前方道路右側,結合
36、車輛的前進方向,作出“車輛先減速,右轉,并緩慢直行”的決策。并給出說明,減速是為了等騎車的人通過,待其通過后車輛再右轉。圖表:DriveVLM場景展示(二)圖表:DriveVLM場景二決策過程資料來源:DriveVLM:The Convergence of Autonomous Driving and Large Vision-Language Models(Xiaoyu Tian等,2024),國盛證券研究所291.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域DriveVLM(清華大學清華大學、理想汽車
37、理想汽車)場景三:前方道路可能發生事故,車道前方有一輛自行車倒在路上,還有交警和一位行人站在道路上。DriveVLM判斷,由于自行車阻擋了前方道路,車輛又要前行,因此要“先減速,再向右變道,并緩慢直行”的決策。同時系統還特別解釋,減速并且確保右后方沒有車輛駛來時,再向右變道。圖表:DriveVLM場景三決策過程資料來源:DriveVLM:The Convergence of Autonomous Driving and Large Vision-Language Models(Xiaoyu Tian等,2024),國盛證券研究所301.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理
38、”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域理想的理想的VLA1)第一步訓練出一個VL基座模型,也就是vision和language的基座模型。理想目前在訓練的版本是一個32B參數(320億)的云端基座模型。2)第二步,后訓練是要把它變成VLA,把action放進來。這時模型規模會從3.2B擴大到接近4B。3)第三步,強化訓練。強化分成兩個部分:第一部分先做RLHF;第二部分是純粹的RL,用世界模型生成的數據來做訓練。4)第四步,搭建司機agent。簡單通用的短指令由端側的VLA直接處理,復雜指令則先由云端的VL基座模型解析,再交由VLA處理。圖表:理想VLA第
39、一個階段預訓練圖表:理想VLA第二個階段后訓練資料來源:理想汽車AI Talk第二季、六合商業研選,國盛證券研究所311.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”圖表:理想VLA第三個階段強化訓練圖表:理想VLA第四個階段Agent資料來源:理想汽車AI Talk第二季、六合商業研選,國盛證券研究所 語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域理想的理想的VLA1)第一步訓練出一個VL基座模型,也就是vision和language的基座模型。理想目前在訓練的版本是一個32B參數(320億)的云端基座模型。2)第二步,后訓練是要把它變成VLA,把
40、action放進來。這時模型規模會從3.2B擴大到接近4B。3)第三步,強化訓練。強化分成兩個部分:第一部分先做RLHF;第二部分是純粹的RL,用世界模型生成的數據來做訓練。4)第四步,搭建司機agent。簡單通用的短指令由端側的VLA直接處理,復雜指令則先由云端的VL基座模型解析,再交由VLA處理。321.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域元戎啟行元戎啟行元戎啟行于2025年1月22日宣布與某頭部車企合作,基于英偉達Thor芯片推出VLA量產車型,計劃年內交付消費者,元戎還透露將在Robota
41、xi領域探索VLA應用。圖表:元戎啟行選擇VLA架構資料來源:36氪,國盛證券研究所331.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域吉利汽車吉利汽車2025年3月,吉利在AI智能科技發布會上,推出了千里浩瀚安全高階智能駕駛系統,共規劃了H1、H3、H5、H7到H9五大層級:加入了VLM大模型的 H7 級別將在2025年完成推送;最高級的H9是完全為L3智能駕駛準備的安全架構,加入了VLA大模型和數字先覺網絡。圖表:千里浩瀚安全高階智能駕駛系統圖表:吉利汽車的泛世界模型資料來源:吉利AI智能科技發布會、
42、超電實驗室,國盛證券研究所341.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”語言模型語言模型、多模態模型被引入智能駕駛領域多模態模型被引入智能駕駛領域小鵬汽車小鵬汽車2025年4月,小鵬在香港舉辦AI技術分享會,首次披露正在研發720億參數的超大規模自動駕駛大模型,也即“小鵬世界基座模型”。小鵬汽車自動駕駛產品高級總監袁婷婷在微博表示:“我們正在云上訓練72B參數的超大規模VLA模型,未來會通過蒸餾方法,生產出小尺寸的車端模型。蒸餾最大的好處,是讓車端小模型盡可能承襲云端大模型的能力,把72B超級大腦的智能推云入端?!眻D表:小鵬世界基座模型圖表:小鵬正在訓練72B參數規模的基
43、模資料來源:小鵬汽車官方微信公眾號,國盛證券研究所35 這一階段來看這一階段來看,除了以上的算法差異除了以上的算法差異,各家的差異還會如何體現各家的差異還會如何體現?1)云端:云端:云端算力怎么樣云端算力怎么樣?2023年6月,特斯拉自動駕駛負責人Ashok Elluswamy在CVPR2023上表示“訓練所有這些模型需要大量的計算資源,這就是為什么特斯拉致力于成為計算領域的世界領導者”。數據獲取數據獲???李想表示,Vision 和 Action 的數據比較難以獲得,車輛裝滿傳感器后可以采集物理世界的數據,有人在車上駕駛就能采集到 Action 的數據。數據基礎設施怎么樣數據基礎設施怎么樣?數
44、據訪問效率如何數據訪問效率如何?小鵬世界基座模型負責人劉博士介紹:多模態模型訓練的主要瓶頸不僅是 GPU,也需要解決數據訪問的效率問題。小鵬汽車自主開發了底層的數據基礎設施(Data Infra),使數據上傳規模提升22倍、訓練中的數據帶寬提升15倍;通過聯合優化GPU/CPU以及網絡I/O,最終使模型訓練速度提升了5倍。模型規模有多大模型規模有多大?小鵬世界基座模型負責人劉博士表示:“過去一年,我們做了大量實驗,在10億、30億、70億、720億參數的模型上都看到了明顯的規模法則效應:參數規模越大,模型的能力越強。同樣的模型大小,訓練數據量越大,模型的能力也會越強?!?)車端:車端:車端算力
45、怎么樣車端算力怎么樣?地平線余凱表示:今年行業內主要在發力L2,對于算力的需求為100+TOPS,2028年將會規模實現L3,對于算力的需求將會達到500-1000+TOPS,2030年實現L4,對于算力的需求是2000+TOPS,2035年間實現L5時則需要5000+TOPS算力。1.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”36 這一階段來看,除了以上的算法差異,各家的差異還會如何體現?這一階段來看,除了以上的算法差異,各家的差異還會如何體現?1.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”67.523.510.68108.17.5010203040506
46、07080云端算力(EFLOPS)資料來源:36氪、特斯拉官網、IT之家、界面新聞、小鵬汽車官網、網易新聞,國盛證券研究所圖表:云端算力對比37 這一階段來看,除了以上的算法差異,各家的差異還會如何體現?這一階段來看,除了以上的算法差異,各家的差異還會如何體現?1.2 從“聾啞司機”到“司機助理”從“聾啞司機”到“司機助理”車企車企最高配芯片供應商最高配芯片供應商最高配芯片最高配芯片算力算力(TOPS)特斯拉自研芯片AI 4720理想英偉達Thor U700小鵬英偉達雙Orin X254*2=508自研芯片(2025Q2e)圖靈芯片單顆等效于3顆Orin X性能(254*3760)華為系車企華
47、為MDC 810400+小米英偉達雙Orin X254*2=508比亞迪英偉達雙Orin X254*2=508奇瑞地平線(2025Q3e)J6P560資料來源:汽車之家、車東西、懂車帝、新浪財經、易車網、芯智訊,國盛證券研究所圖表:車端算力對比目錄目錄38 1、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”1.1 從“模仿人類”到“超越人類”1.2 從“聾啞司機”到“司機助理”2、硬件側:比人看得清、比人想得遠、比人反應快、硬件側:比人看得清、比人想得遠、比人反應快2.1 感知層:雙目感知、鷹眼視覺、激光雷
48、達,比人看得清感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠2.3 執行層:線控趨勢已成,比人反應快391)純視覺路線的代表車企純視覺路線的代表車企特斯拉的雙目感知特斯拉的雙目感知特斯拉CEO埃隆 馬斯克一直堅定地反對激光雷達,甚至多次在公開場合貶低激光雷達,比如:“激光雷達毫無意義,對于自動駕駛汽車來說沒有必要”;“激光雷達昂貴、丑陋、沒有必要”;“激光雷達就像人身上長了一堆闌尾,闌尾本身的存在基本是無意義的,如果長了一堆的話,那就太可笑了”;“任何依賴激光雷達的公司都可能無疾而終”等。HW4.0搭載超遠距離雙目攝像頭,最遠探測距離達
49、424米。根據眾安保險和中國公安部官網,駕駛員的視野范圍會隨著車速提高而變窄,動態視力也會隨著車速的增加而下降。當車速是60km/h時,最大視認距離為240m;當車速為80km/h時,視認距離為160m。具體取決于駕駛環境、光照條件、天氣狀況和個人視力等因素。2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清車型車型Model Y 2025款款駕駛輔助影像倒車影像;車側盲區影像輔助駕駛芯片AI 4芯片總算力720 TOPS前方感知攝像頭雙目攝像頭數量8個前方感知攝像頭像素500萬車內攝像頭數量1個前方最大探測距離424米硬件硬件HW3.0H
50、W4.0成像2D圖像3D圖像攝像頭數量/像素8個/120萬7個/500萬最大探測距離250米424米芯片研發方案特斯拉自研特斯拉自研芯片數量/算力雙FSD芯片/144TOPS雙FSD芯片/720TOPS芯片制造商及工藝三星代工14nm制造三星代工 7nm制造CPU內核12個20個CPU內存LPDDR4GDDR6資料來源:汽車之家,國盛證券研究所圖表:特斯拉Model Y智能化配置圖表:特斯拉HW3.0和HW4.0對比402)純視覺路線的代表車企純視覺路線的代表車企小鵬的鷹眼視覺小鵬的鷹眼視覺小鵬AI鷹眼視覺方案,感知距離提升125%,識別速度提升40%。官方介紹比人眼還要清晰10倍。鷹眼視覺的
51、鷹眼視覺的LOFIC架構架構(Lateral OverFlow Integration Capacitor)和HDR功能功能(High Dynamic Range,高動態范圍):LOFIC架構是一種單像素橫向溢出集成電容架構,在傳統的像素電容的基礎上增加了一個溢出電容,用于承接由高亮度光源產生的溢出電荷,從而提升了動態范圍,在強逆光環境下也能夠捕捉到清晰的圖像。從某種程度上說從某種程度上說,小鵬小鵬AI鷹眼視覺方案在某些方面超越了人類生物體的視覺感知能力鷹眼視覺方案在某些方面超越了人類生物體的視覺感知能力。LOFIC方案通過攝像頭將光信號轉換為電信號。當光線過強或光差過大時,人類視覺需要適應,
52、但LOFIC方案通過特定的電容技術處理,在車輛載體上能夠很好地應對各種光差,實現精準的視覺感知。2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清圖表:小鵬鷹眼視覺比人眼清晰10倍圖表:小鵬AI鷹眼視覺方案看得更準、更清、更遠資料來源:汽車之家、進化加速度,國盛證券研究所412)純視覺路線的代表車企純視覺路線的代表車企小鵬的鷹眼視覺小鵬的鷹眼視覺 像素像素:在上一代的基礎上,升級了前視、后視、側視的攝像頭,尤其是前視和后視采用3顆800萬像素攝像模組,構建起車前、車后大角度高清監控網絡,為智能駕駛系統提供精準、可靠的數據支持。2.1 感知層
53、:雙目感知、鷹眼視覺、激光雷達,比人看得清感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清資料來源:進化加速度,國盛證券研究所圖表:小鵬AI鷹眼視覺方案423)激光雷達方案激光雷達方案主流車廠的選擇主流車廠的選擇隨著智駕等級的提升、激光雷達成本的下降,激光雷達迎來了大規模量產的階段。廣汽:2024年,廣汽埃安RT就已經在15萬價格帶實現了激光雷達上車。520激光雷達版匯集了城市NDA、高速智駕領航和自動泊車三大功能,售價僅15.58萬元;650激光雷達版擁有同級唯一帶激光雷達的超長續航高階智駕,售價僅16.58萬元。零跑:2025年,零跑發布LEAP 3.5架構,配備300米探測距離激光雷達+
54、5顆毫米波雷達+12顆高精攝像頭。理想:在L系列的智駕煥新版車型上標配禾賽的激光雷達。2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清14055 7007 3712 2818 48952 13958 7813 2354 01000020000300004000050000600002021202220232024速騰聚創-激光雷達價格:元禾賽-激光雷達價格:元資料來源:中國信通院、ICV Tank、灼識咨詢、速騰聚創招股書、速騰聚創業績公告、禾賽科技業績公告,國盛證券研究所圖表:激光雷達、毫米波雷達、超聲波雷達及攝像頭之間的比較圖表:頭部
55、激光雷達供應商產品價格持續下降圖表:各傳感器之間具有一定互補性目錄目錄43 1、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”1.1 從“模仿人類”到“超越人類”1.2 從“聾啞司機”到“司機助理”2、硬件側:比人看得清、比人想得遠、比人反應快、硬件側:比人看得清、比人想得遠、比人反應快2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠決策層:下一代智駕系統對芯片要求更高,比人想得遠2.3 執行層:線控趨勢已成,比人反應快44 VLA帶來了更高的
56、車端算力挑戰帶來了更高的車端算力挑戰,解決方式呼之欲出解決方式呼之欲出在推理時長上,傳統rule-base(基于規則)方案下,智駕只能推理1秒鐘路況信息然后做出決策控制;端到端1.0階段系統能夠推理出未來7秒路況,而VLA能對幾十秒路況進行推理。VLA模型的上車難度不小,車端模型參數變得更大,既要有高效實時推理能力,同時還要有大模型認識復雜世界并給出建議的能力,對車端芯片硬件有相當高要求。先進芯片上車時間表:先進芯片上車時間表:小 鵬:圖 靈 芯 片 等 效 于 3 顆 OrinX(單 顆 OrinX254TOPS)的性能,預計2025Q2上車;預計2026年可能在車端實現3000T算力(多顆
57、芯片)。理想:2025年5月,L系列智駕煥新版Max車型上搭載Thor-U(700TOPS)。蔚來:ET9于2024年12月上市、2025年3月底交付,搭載2顆自研的神璣NX9031,單顆算力超1000T。特斯拉:下一代車載計算平臺AI5性能預計顯著提升,馬斯克透露AI5算力為HW4的10倍。極氪:9X將搭載雙Thor芯片,預計在2025Q3上市。奇瑞:預計2025年9月搭地平線J6P,等效560TOPS。2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠決策層:下一代智駕系統對芯片要求更高,比人想得遠圖表:地平線判斷隨著智能駕駛等級提升,所需車端算力持續增長資料來源:車東西、地平線發布
58、會,國盛證券研究所45圖表:智能駕駛和智能座艙芯片參數對比(不完全梳理,含待上市的產品)廠家廠家型號型號Al算力算力TOPSint8存儲存儲帶寬帶寬(GB/s)CPU核心數量核心數量CPU架構架構制造工藝制造工藝(納米納米)代工廠代工廠估計價格估計價格(美元美元)CPU算力算力(DMIPS)英偉達Thor最高2000-12/16/24(估計)Arm NEOVERSEV25 臺積電-500K以上英偉達Orin-X254-12 Arm A78AE8 三星400-500227K英偉達Xavier NX32-8 Carmel12 臺積電120-15096K小鵬圖靈芯片等效于三顆Orin X-高通SA8
59、540+SA9000360-8 4核Arm Cortex-X1+4核A555 臺積電400-500200K高通SA8650100 77 8/12(估計)Arm Cortex-X3(估計)5 臺積電200-250240K(估計)高通SA829530-8 4核Arm Cortex-X1+4核A555 臺積電150-200200K高通SA81558-8 4核Arm A76+4核A557 臺積電75-85105K德州儀器TDA4VM8-2 Arm A7216 臺積電50-6025K德州儀器TDA4VH32-8 Arm A7216 臺積電120-150100K地平線J6P560 20518Arm Cor
60、tex A78AE-410K地平線J6M128-137K地平線J6E80-100K地平線J6B10+-20K+地平線J5128-8 Arm A5516 臺積電75-9026K地平線J35-4 Arm A53-25-3012K芯馳X9U1.2-14 Arm A55-50-75-資料來源:佐思汽車研究、懂車帝、鈦媒體、太平洋號、路咖汽車、虎嗅、智東西、GeekCar、快科技、汽車之家、創業邦、易車網、半導體芯聞、今日頭條觀察者網、車東西、黑芝麻智能招股說明書,國盛證券研究所2.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠決策層:下一代智駕系統對芯片要求更高,比人想得遠46圖表:智能駕駛和智
61、能座艙芯片參數對比(不完全梳理,含一些待上市的產品,續表)廠家廠家型號型號Al算力算力TOPSint8存儲存儲帶寬帶寬(GB/s)CPU核心數量核心數量CPU架構架構制造工藝制造工藝(納米納米)代工廠代工廠估計價格估計價格(美元美元)CPU算力算力(DMIPS)MobileyeEyeQ4M2.5-4 MIPS interAptiv28 ST35-4012K(估計)MobileyeEyeQ4H2.5-4 MIPS interAptiv28 ST40-4512K(估計)MobileyeEyeQ5M24-8 MIPS I6500-F7 臺積電50-5540K(估計)MobileyeEyeQ5H24-
62、8 MIPS 16500-F7 臺積電60-7040K(估計)MobileyeEyeQ Ultra176-5-MobileyeEyeQ6H34-英特爾A3960-4 Apollo Lake14 內部50-6048K瑞薩R-CAR H3E-8 4核A57+4核A5316 臺積電80-9049K瑞薩V4H34 51-Arm A767 臺積電45-5049K瑞薩V3U60 34-12-96K特斯拉FSD(HW3.0用兩顆)72 68 12 cortex A7214 三星-150K特斯拉FSD II-448-90020-7 三星-300K(估計)蔚來天璣NX9031600(估計)276(估計)-5-6
63、15K百度昆侖芯2256 512-華為MDC610160-7-220K黑芝麻智能A2000250-1000-16ARM Cortex-A78ARM Cortex-R52(MCU)7-黑芝麻智能A1000 Pro106+-11-16臺積電-黑芝麻智能A100058 37 11-16 臺積電10030K黑芝麻智能A1000L16-11-16臺積電-安霸CV3-AD685750 224-5-220K資料來源:佐思汽車研究、懂車帝、鈦媒體、太平洋號、路咖汽車、虎嗅、智東西、GeekCar、快科技、汽車之家、創業邦、易車網、半導體芯聞、今日頭條觀察者網、車東西、黑芝麻智能招股說明書,國盛證券研究所2.2
64、 決策層:下一代智駕系統對芯片要求更高,比人想得遠決策層:下一代智駕系統對芯片要求更高,比人想得遠472.2 決策層:下一代智駕系統對芯片要求更高,比人想得遠決策層:下一代智駕系統對芯片要求更高,比人想得遠 軟硬耦合軟硬耦合,基于成熟的軟件算法設計智能駕駛芯片硬件基于成熟的軟件算法設計智能駕駛芯片硬件,性能提升明顯性能提升明顯地平線機器人地平線機器人:創始人余凱認為,在L5級自動駕駛需求被滿足前,智能駕駛需要軟硬結合。特斯拉特斯拉:自研的FSD芯片,在HW3.0的時代,單顆僅有72TOPS的算力,單車搭載2顆對應144TOPS算力,仍有非常好的體驗。小鵬小鵬:自研圖靈芯片的原因在于1)智駕對車
65、端高算力提出更高要求,2)解決公版芯片大量通用算力被浪費的問題。其圖靈芯片等效于3顆英偉達OrinX的性能,并且具有性價比。圖表:地平線走軟硬結合的路線圖表:地平線判斷軟硬結合帶來更高的效率資料來源:車東西,國盛證券研究所目錄目錄48 1、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”、軟件側:從“模仿人類”到“超越人類”、從“聾啞司機”到“司機助理”1.1 從“模仿人類”到“超越人類”1.2 從“聾啞司機”到“司機助理”2、硬件側:比人看得清、比人想得遠、比人反應快、硬件側:比人看得清、比人想得遠、比人反應快2.1 感知層:雙目感知、鷹眼視覺、激光雷達,比人看得清2.2
66、決策層:下一代智駕系統對芯片要求更高,比人想得遠2.3 執行層:線控趨勢已成,比人反應快執行層:線控趨勢已成,比人反應快492.3 執行層:線控趨勢已成,比人反應快執行層:線控趨勢已成,比人反應快特斯拉 Cybercab 無人駕駛出租車亮相于2024年 10 月舉行的特斯拉“WE,ROBOT”發布會,該車為一輛雙門轎跑,采用鷗翼門設計。馬斯克表示,此次亮相的特斯拉 Robotaxi 名為 Cybercab,沒有方向盤和踏板沒有方向盤和踏板,車輛成本預計將低于 30000 美元,并將于 2026 年投入生產。資料來源:華爾街見聞、坐標系智能,國盛證券研究所圖表:特斯拉CyberCab官方渲染圖圖
67、表:特斯拉CyberCab外觀501)線控轉向線控轉向主要基于其取消了方向盤與車輪之間的機械連接,能夠憑借傳感器獲得方向盤的轉角數據,然后通過ECU將其計算為具體的轉向數據,再結合車速及車輛行駛狀態來對車輪轉角進行控制。相對EPS,線控轉向系統(SbW)優點:行車安全;提高駕駛舒適性;節省空間。提高安全性提高安全性線控轉向系統可以帶來更高的操控精準度和效率,減少因人為操作失誤導致的交通事故。提高駕駛舒適性提高駕駛舒適性線控轉向系統可以根據駕駛員的意圖自動調整轉向力度和角度,使駕駛更加輕松、舒適。節省空間節省空間由于線控轉向系統通過數據線與控制單元連接,無需傳統的機械連桿結構,因此可以減小轉向系
68、統的體積,為車內提供更多空間。2.3 執行層:線控趨勢已成,比人反應快執行層:線控趨勢已成,比人反應快圖表:SbW較EPS省去了大部分機械傳動裝置圖表:線控轉向較傳統轉向系統的三大優勢資料來源:易車網、新浪科技,國盛證券研究所512.3 執行層:線控趨勢已成,比人反應快執行層:線控趨勢已成,比人反應快車企車企車型車型上市時間上市時間搭載線控轉向技術搭載線控轉向技術英菲尼迪英菲尼迪Q502014年搭載雙電機前輪線控轉向DAS技術豐田海外版bZ4X2022年搭載One Motion Grip線控轉向技術(供應商為捷太格特)雷克薩斯RZ450e特斯拉Cybertruck2023年搭載線控轉向技術,方
69、向盤最大可旋轉180度,根據車速提供可變的轉向比蔚來蔚來ET92025Q1搭載天行線控轉向系統,可實現6:114:1可變轉向比奔馳奔馳S級2021年后輪主動轉向,最大轉向角為4.5或10奔馳EQS SUV2024年4月后輪主動轉向,最大轉向角為4.5或10小鵬小鵬X92024年1月標配后輪轉向(供應商采埃孚),后輪轉向交付5騰勢騰勢Z9 GT2024年配備后輪轉向,后輪轉向角度達到10智己智己L62024年5月標配后輪轉向功能吉利吉利銀河星艦2025年量產標配后輪轉向功能圖表:搭載線控轉向的量產車型較少1)線控轉向線控轉向我們認為線控轉向未來已來,原因在于:1)頭部整車廠高階智駕規劃時間表漸近
70、,例如特斯拉在2025Q1業績會上表示計劃在2025年6月將Robotaxi引入奧斯汀,依賴原有Model Y車型;大規模完全自動駕駛預計將在2026年年中左右實現;2)除了北美客戶之外,全球最領先的自動駕駛企業大多落于中國,各家整車廠在智駕領域激烈角逐,中國消費者也已經開始將智駕能力作為購車考慮因素之一。展望L4階段,我們預計當前智能車已進入到L4能力儲備階段。資料來源:蓋世汽車、與非網,國盛證券研究所522)線控制動線控制動機械式線控制動系統(簡稱EMB)與傳統液壓制動系統相比,具有很多優勢。整個系統無制動管道連接,結構簡單,體積??;具有更高的反應靈敏度,制動距離小,動作穩定;由于無工作油
71、管道和無工作油泄漏問題,維護更加方便;通過ECU直接控制,可以實現更多高級功能,如ABS、TCS、ESP等,易于實現ACC等功能。2.3 執行層:線控趨勢已成,比人反應快執行層:線控趨勢已成,比人反應快圖表:傳統制動系統與線控制動系統的區別資料來源:51CTO,國盛證券研究所53投資建議投資建議 我們認為交通是現實世界AI最重要的應用場景之一,智能駕駛產業趨勢明確、從及格到超越人類的拐點并不非常遙遠。建議關注以下港美股公司:智能車及積極轉型的傳統車企,如特斯拉(TSLA.O)、小鵬(9868.HK)、理想(2015.HK)、零跑(9863.HK)、小米(1810.HK)、比亞迪(1211.HK
72、)、吉利(0175.HK)等;Robotaxi運營廠商,如小馬智行(PONY.O)、文遠知行(WRD.O)等;智能駕駛軟件+芯片方案供應商,如地平線(9660.HK)等;核心的線控轉向、線控制動供應商,如耐世特(1315.HK)等;激光雷達供應商,如禾賽(HSAI.O)、速騰聚創(2498.HK)等。54風險提示風險提示 技術發展不及預期風險。技術發展不及預期風險。我們判斷L3、L4等級的智能駕駛技術實現并不遙遠,倘若技術發展不及預期,可能會影響各公司的業績和估值。政策支持不及預期的風險。政策支持不及預期的風險。若全球各地政策支持不及預期,可能影響智能駕駛的滲透率提升速度。各種功能落地不及預期
73、風險。各種功能落地不及預期風險。領先企業持續探索智能駕駛技術,希望給消費者能帶來的更加豐富的功能。倘若落地效果不及預期,則可能影響相關公司的業績和估值。免責聲明免責聲明國盛證券有限責任公司(以下簡稱“本公司”)具有中國證監會許可的證券投資咨詢業務資格。本報告僅供本公司的客戶使用。本公司不會因接收人收到本報告而視其為客戶。在任何情況下,本公司不對任何人因使用本報告中的任何內容所引致的任何損失負任何責任。本報告的信息均來源于本公司認為可信的公開資料,但本公司及其研究人員對該等信息的準確性及完整性不作任何保證。本報告中的資料、意見及預測僅反映本公司于發布本報告當日的判斷,可能會隨時調整。在不同時期,
74、本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司不保證本報告所含信息及資料保持在最新狀態,對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司力求報告內容客觀、公正,但本報告所載的資料、工具、意見、信息及推測只提供給客戶作參考之用,不構成任何投資、法律、會計或稅務的最終操作建議,本公司不就報告中的內容對最終操作建議做出任何擔保。本報告中所指的投資及服務可能不適合個別客戶,不構成客戶私人咨詢建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素。投資者應注意,在法律許可的情況下,本公司及其本公司的關
75、聯機構可能會持有本報告中涉及的公司所發行的證券并進行交易,也可能為這些公司正在提供或爭取提供投資銀行、財務顧問和金融產品等各種金融服務。本報告版權歸“國盛證券有限責任公司”所有。未經事先本公司書面授權,任何機構或個人不得對本報告進行任何形式的發布、復制。任何機構或個人如引用、刊發本報告,需注明出處為“國盛證券研究所”,且不得對本報告進行有悖原意的刪節或修改。分析師聲明分析師聲明本報告署名分析師在此聲明:我們具有中國證券業協會授予的證券投資咨詢執業資格或相當的專業勝任能力,本報告所表述的任何觀點均精準地反映了我們對標的證券和發行人的個人看法,結論不受任何第三方的授意或影響。我們所得報酬的任何部分
76、無論是在過去、現在及將來均不會與本報告中的具體投資建議或觀點有直接或間接聯系。投資評級說明投資評級說明投資建議的評級標準投資建議的評級標準評級評級說明說明評級標準為報告發布日后的6個月內公司股價(或行業指數)相對同期基準指數的相對市場表現。其中A股市場以滬深300指數為基準;新三板市場以三板成指(針對協議轉讓標的)或三板做市指數(針對做市轉讓標的)為基準;香港市場以摩根士丹利中國指數為基準,美股市場以標普500指數或納斯達克綜合指數為基準。股票評級買入相對同期基準指數漲幅在15%以上增持相對同期基準指數漲幅在5%15%之間持有相對同期基準指數漲幅在-5%+5%之間減持相對同期基準指數跌幅在5%以上行業評級增持相對同期基準指數漲幅在10%以上中性相對同期基準指數漲幅在-10%+10%之間減持相對同期基準指數跌幅在10%以上國盛證券研究所國盛證券研究所北京北京上海上海南昌南昌深圳深圳地址:北京市東城區永定門西濱河路8號院7樓中海地產廣場東塔7層地址:上海市浦東新區南洋涇路555號陸家嘴金融街區22棟地址:南昌市紅谷灘新區鳳凰中大道1115號北京銀行大廈地址:深圳市福田區福華三路100號鼎和大廈24樓郵編:100077郵編:200120郵編:330038郵編:518033郵箱:電話:021-38124100傳真:0791-86281485郵箱:郵箱:郵箱: