《AI+行業系列之智能駕駛:自動駕駛的“大模型”時代-230923(39頁).pdf》由會員分享,可在線閱讀,更多相關《AI+行業系列之智能駕駛:自動駕駛的“大模型”時代-230923(39頁).pdf(39頁珍藏版)》請在三個皮匠報告上搜索。
1、2023年9月23日自動駕駛的“大模型”時代AI+行業系列之智能駕駛行業評級:看好證券研究報告分析師劉雯蜀分析師劉靜一郵箱郵箱證書編號S1230523020002證書編號S1230523070005添加標題95%摘要21、大模型技術發展歷程大模型泛指具有數十億甚至上百億參數的深度學習模型,而大語言模型是大模型的一個典型分支(以ChatGPT為代表)。Transformer架構的提出引入了注意力機制,突破了RNN和CNN處理長序列的固有局限,使語言模型能在大規模語料上得到豐富的語言知識預訓練,一方面,開啟了大語言模型快速發展的新時代;另一方面奠定了大模型技術實現的基礎,為其他領域模型通過增大參數
2、量提升模型效果提供了參考思路。復雜性、高維度、多樣性和個性化要求使得大型模型在自動駕駛、量化交易、醫療診斷和圖像分析、自然語言處理和智能對話任務上更易獲得出色的建模能力。2、自動駕駛模型迭代路徑自動駕駛算法模塊可分為感知、決策和規劃控制三個環節,其中感知模塊為關鍵的組成部分,經歷了多樣化的模型迭代:CNN(2011-2016)RNN+GAN(2016-2018)BEV(2018-2020)Transformer+BEV(2020至今)占用網絡(2022至今)。特斯拉自動駕駛技術路徑的演進可視為自動駕駛技術迭代的風向標,呈現全棧自研、出軟硬件的協同發展趨勢:軟件層面從采用Mobileye到自研T
3、ransformer+BEV 和占用網絡;硬件層面從與Mobileye、英偉達合作到自研FSD芯片方案。3、大模型對自動駕駛行業的賦能與影響自動駕駛領域的大模型發展相對大語言模型滯后,大約始于2019年,吸取了GPT等模型成功經驗。大模型的應用加速模型端的成熟,為L3/L4級別的自動駕駛技術落地提供了更加明確的預期??蓮某杀?、技術、監管與安全四個層面對于L3及以上級別自動駕駛落地的展望,其中:成本仍有下降空間;技術的發展仍將沿著算法和硬件兩條主線并進;法規政策還在逐步完善之中;安全性成為自動駕駛汽車實現商業化落地必不可少的重要因素。各主機廠自2021年開始加速對L2+自動駕駛的布局,且預計在2
4、024年左右實現L2+(接近L3)或者更高級別的自動駕駛功能的落地,其中政策有望成為主要催化。UWjWuZvX9UnVsUoMbR9R9PmOoOmOoNeRnNuNeRnPpR9PmMuNMYrMtPuOmQrN風險提示31、自動駕駛算法研發與迭代不及預期2、智能網聯汽車政策落地不及預期3、由于中美關系影響導致自動駕駛芯片供應鏈出現波動的風險4、行業競爭加劇導致價格戰的風險5、報告中的統計信息均為基于公開信息的不完全統計,各公司實時動態和最新發展可能存在動態調整目錄C O N T E N T S010203自動駕駛技術迭代路徑感知算法迭代路徑特斯拉軟硬件解決方案迭代路徑大模型對自動駕駛行業的
5、賦能與影響大模型對自動駕駛行業的賦能高級別自動駕駛落地展望車廠自動駕駛布局404風險提示大模型技術發展歷程大模型技術發展歷程01Partone5添加標題大模型基本定義與基礎功能016大模型基本定義:由大語言模型到泛在的大模型大模型主要指具有數十億甚至上百億參數的深度學習模型,比較有代表性的是大型語言模型(Large Language Models,比如最近大熱的ChatGPT)。大型語言模型是一種深度學習算法,可以使用非常大的數據集來識別、總結、翻譯、預測和生成內容。大語言模型在很大程度上代表了一類稱為Transformer網絡的深度學習架構。Transformer模型是一個神經網絡,通過跟蹤
6、序列數據中的關系(像這句話中的詞語)來學習上下文和含義。Transformer架構的提出,開啟了大語言模型快速發展的新時代:谷歌的BERT首先證明了預訓練模型的強大潛力OpenAI的GPT系列及Anthropic的Claude等繼續探索語言模型技術的邊界。越來越大規模的模型不斷刷新自然語言處理的技術狀態。這些模型擁有數百億或上千億參數,可以捕捉語言的復雜語義關系,并進行人類級別的語言交互。資料來源:NVIDIA官網、GitHub網站、浙商證券研究所圖:大模型發展歷程添加標題解鎖大模型時代的鑰匙Transformer的注意力機制017注意力機制:Transformer的核心創新Transform
7、er模型最大的創新在于提出了注意力機制,這一機制極大地改進了模型學習遠距離依賴關系的能力,突破了傳統RNN和CNN在處理長序列數據時的局限。在Transformer出現之前,自然語言處理一般使用RNN或CNN來建模語義信息。但RNN和CNN均面臨學習遠距離依賴關系的困難:RNN的序列處理結構使較早時刻的信息到后期會衰減;而CNN的局部感知也限制了捕捉全局語義信息。這使RNN和CNN在處理長序列時,往往難以充分學習詞語之間的遠距離依賴。Transformer注意力機制突破了RNN和CNN處理長序列的固有局限,使語言模型能在大規模語料上得到豐富的語言知識預訓練。該模塊化、可擴展的模型結構也便于通過
8、增加模塊數量來擴大模型規模和表達能力,為實現超大參數量提供了可行路徑。Transformer解決了傳統模型的長序列處理難題,并給出了可無限擴展的結構,奠定了大模型技術實現的雙重基礎。資料來源:Attention Is All You Need,Ashish Vaswani等、浙商證券研究所圖:Transformer模型架構圖添加標題大模型超越傳統的新范式018大模型的預訓練-微調范式大模型代表了一種新的預訓練-微調范式,其核心是先用大規模數據集預訓練一個極大的參數模型,然后微調應用到具體任務。這與傳統的單任務訓練形成了對比,標志著方法論的重大變革。參數量的倍數增長是大模型最根本的特點,從早期模
9、型的百萬量級,發展到現在的十億甚至百億量級,實現了與以往數量級的突破。Transformer架構的提出開啟了NLP模型設計的新紀元,它引入了自注意力機制和并行計算思想,極大地提高了模型處理長距離依賴關系的能力,為后續大模型的發展奠定了基礎。正是由于Transformer架構的成功,研究者們意識到模型的架構設計在處理復雜任務和大規模數據中發揮著舉足輕重的作用。這一認識激發了研究者進一步擴大模型參數量的興趣。雖然之前也曾有過擴大參數量的嘗試,但因受限于當時模型本身的記憶力等能力,提高參數數量后模型的改進并不明顯。GPT-3的成功充分驗證了適度增大參數量能顯著提升模型的泛化能力和適應性,由此掀起了大
10、模型研究的熱潮。它憑借過千億參數量和強大的語言生成能力,成為參數化模型的典范。GPT-3在許多NLP任務上表現亮眼,甚至在少樣本或零樣本學習中也能取得驚人的效果。資料來源:Attention Is All You Need,Ashish Vaswani等、浙商證券研究所更好的表示能力:增大參數量使模型能夠更好地學習數據中的復雜關系和模式,從而提高模型的表示能力,使其在不同任務上表現更出色。泛化能力和遷移學習:大模型能夠從一個領域學習到的知識遷移到另一個領域,實現更好的遷移學習效果,這對于數據稀缺的任務尤其有價值。零樣本學習:增大參數量可以使模型更好地利用已有的知識和模式,從而在零樣本學習中取得
11、更好的效果,即使只有很少的示例也能完成任務。創新和探索:大模型的強大能力可以幫助人們進行更多創新性的實驗和探索,挖掘出更多數據中的隱藏信息。圖:增大參數量的優點添加標題大模型的域差異:NLP大模型發展為何領先計算機視覺領域019 NLP任務涉及大規模文本數據,易于獲取、處理和標注,而視覺數據的采集和標注相對更為復雜和昂貴。早期計算資源有限,難以支持視覺領域大模型的訓練。數據特點和計算資源:NLP問題要求模型理解語義、上下文和邏輯,大模型有助于捕捉這些特征。視覺問題更注重圖像特征提取和模式識別,不需要過大的參數量即可實現較好效果,早期或不緊迫需要大模型的加入。任務復雜性與需求:早期語言模型如RN
12、N、LSTM為NLP領域的大模型奠定基礎,促使研究關注構建更大、復雜的模型。早期視覺領域主要使用CNN等模型,注重局部特征的提取,未迫切需要大模型的引入。模型與算法發展:視覺數據的標注通常需要人工干預,而NLP領域的文本數據可以相對容易地進行自動標注(大模型在大規模通用語料上進行預訓練之后,已經學會了廣泛的知識,然后遷移到下游特定標注任務中微調,就可以減少人工標注的需求)。模型架構和數據標注:資料來源:The Unreasonable Effectiveness of Recurrent Neural Networks(2015)、浙商證券研究所添加標題探索大模型:任務適配性、模型變革與應用前
13、景0110與早期的人工智能模型相比,大型模型在參數量上取得了質的飛躍,導致了在復雜任務的建模能力整體上的提升:1)學習能力增強:以應對更復雜的任務;2)泛化能力加強:以實現更廣泛的適用性;3)魯棒性提高;4)具備更高層次認知互動能力:可模擬某些人類能力等。復雜性、高維度、多樣性和個性化要求使得大型模型在某些任務上更易獲得出色的建模能力:多模態傳感器數據的融合分析,尤其涉及到時序數據的處理,如自動駕駛復雜且動態的目標,需要模型從大規模多樣化的數據模式中學習,如金融領域中的量化交易策略優化涉及異構數據源的高維輸入空間,如醫學圖像和報告需要為不同用戶或場景進行個性化建模的定制化需求,如智能助理資料來
14、源:NVIDIA官網、浙商證券研究所量化交易大模型在金融領域可以優化量化交易策略,通過學習大規模的市場數據模式,預測股票價格和市場趨勢。大模型可以分析多模態傳感器數據,如視覺圖像、激光雷達數據和車輛信息,幫助自動駕駛系統更好地理解復雜的交通場景,做出準確的決策,提高駕駛安全性。自動駕駛在醫療領域,大模型可以處理醫學圖像(如X射線、MRI、CT掃描等)以及臨床報告等多種數據源,幫助醫生更準確地診斷疾病、發現潛在問題并提供治療建議。醫療診斷和圖像分析大模型在自然語言處理任務中表現優異,可以用于智能助理、在線客服、自動翻譯等應用,提供更自然、準確和流暢的對話體驗。自然語言處理智能對話自動駕駛技術迭代
15、路徑02Partone11自動駕駛算法核心模塊概覽0212自動駕駛算法模塊可分為感知、決策和規劃控制三個環節,其中感知模塊為關鍵的組成部分感知模塊負責解析并理解自動駕駛所處車輛周邊的交通環境,是實現自動駕駛的基礎和前提,感知模塊的精準程度,直接影響并制約著自動駕駛系統的整體安全性和可靠性。感知模塊主要通過攝像頭、激光雷達、毫米波雷達等各類傳感器獲取輸入數據,然后通過深度學習等算法,準確解析出道路標線、其他車輛、行人、交通燈、路標等場景元素,以供后續流程使用。與感知模塊相比,決策和規劃控制等模塊的作用更為單一和被動。這些模塊主要依據感知模塊輸出的環境理解結果,通過算法決策生成駕駛策略,并實時規劃
16、車輛的運動軌跡和速度,最終轉換為控制命令,以實現自動駕駛。因此,在自動駕駛研發過程中,工程師投入的時間和精力主要放在提升感知算法上的精度上。資料來源:MDPI官網、浙商證券研究所圖:自動駕駛汽車架構概述CNN02132011-2016:CNN引發自動駕駛領域的首次革新浪潮隨著深度學習和計算能力的提升,卷積神經網絡(CNN)在圖像識別任務上的出色表現引發了自動駕駛領域的首次革新浪潮。2011年,IJCNN的論文Traffic Sign Recognition with Multi-Scale Convolutional Networks展示了CNN在交通標志識別方面的潛力;2016年,Nvidi
17、a團隊發表的End-to-End Deep Learning for Self-Driving Cars成為最早將CNN應用于端到端自動駕駛的工作之一。CNN極大提升了自動駕駛車輛的環境感知能力。一方面,CNN在圖像識別與處理方面的卓越表現,使車輛能夠準確分析道路、交通標志、行人與其他車輛;另一方面,CNN有效處理多種傳感器數據的優勢,實現了圖像、激光雷達等數據的融合,提供全面的環境認知。疊加計算效率的提高,CNN模型進一步獲得了實時進行復雜的感知與決策的能力。但CNN自動駕駛也存在一定局限性:1)需要大量標注駕駛數據進行訓練,而獲取足夠多樣化數據具有難度;2)泛化性能有待提高;3)魯棒性也需
18、要經受更復雜環境的考驗;4)時序任務處理能力:相比較而言RNN等其他模型可能更占優勢。資料來源:End to End Learning for Self-Driving Cars,Mariusz Bojarski等、Traffic sign recognition with multi-scale Convolutional Networks,Pierre Sermanet等、NVIDIA官網、浙商證券研究所圖:一個兩階段的卷積神經網絡架構輸入通過兩個卷積和子采樣階段進行前饋處理,最終通過線性分類器進行分類。第一階段的輸出還被直接饋送給分類器作為更高分辨率的特征。圖:融合了LSTM和GAN的模
19、型架構圖RNN、GAN02142016-2018:RNN和GAN被廣泛應用到自動駕駛相關的研究,推動自動駕駛在對應時間區間內快速發展RNN相較于CNN更適合處理時間序列數據:RNN的循環結構可以建模時間上的動態變化,這對處理自動駕駛中的軌跡預測、行為分析等時序任務非常有用。例如在目標跟蹤、多智能體互動建模等領域,RNN和LSTM(RNN的改進版本)帶來了巨大突破,可以預測車輛未來的運動軌跡,為決策和規劃提供支持。GAN的生成能力緩解自動駕駛系統訓練數據不足的問題:GAN可以學習復雜分布,生成高質量的合成數據,為自動駕駛領域帶來了新思路,用于緩解自動駕駛系統訓練數據不足的問題。例如GAN可以生成
20、模擬的傳感器數據、場景信息,測試自動駕駛算法的魯棒性,也可以用于交互式模擬場景生成。RNN+GAN,可以實現端到端的行為預測和運動規劃:RNN負責時序建模,GAN負責數據生成,兩者相互協同,可以為自動駕駛系統提供更全面和可靠的環境感知、狀態預測和決策支持。資料來源:Interaction-aware Multi-agent Tracking and Probabilistic Behavior Prediction via Adversarial Learning,Jiachen Li等、浙商證券研究所RNN、GAN0215RNN和GAN仍未解決的問題:RNN類模型:長期時序建模能力仍較弱,特
21、別是在處理較長的時間序列數據時可能出現梯度消失或梯度爆炸的問題,限制了它在某些自動駕駛任務上的應用效果。GAN模型:生成的數據質量難以控制,很難達到足夠逼真的程度。此外,盡管GAN可以生成合成數據,但在實際應用中,它在自動駕駛領域的具體應用仍相對有限。樣本效率低:RNN和GAN在樣本效率方面仍較低,通常需要大量的真實場景數據來訓練和優化模型。而且這些模型難以解釋,缺乏對內部決策過程的清晰解釋,同時模型的穩定性和可靠性也是需要進一步解決的問題之一。資料來源:Interaction-aware Multi-agent Tracking and Probabilistic Behavior Pred
22、iction via Adversarial Learning,Jiachen Li等、浙商證券研究所RNN和GAN在自動駕駛領域應用趨冷的原因 效率和實時性需求:自動駕駛系統需要在實時性要求較高的情況下做出決策和控制。傳統的RNN在處理序列數據時,存在計算效率較低的問題,處理實時感知和決策任務能力有限。復雜性和泛化能力:自動駕駛涉及復雜多變的交通場景和環境,需要具備強大的泛化能力。然而,傳統的RNN可能在處理復雜的時序數據時遇到困難,而無法很好地適應各種交通情況。新興技術的興起:隨著深度學習領域的發展,新的模型架構和算法不斷涌現,如Transformer架構、強化學習等,這些新技術在處理感知
23、、決策和規劃等任務方面可能更加高效和適用。圖:BirdNet 3D 對象檢測框架BEV02162018-2020:基于鳥瞰視角(BEV)的模型在自動駕駛領域獲得了廣泛的研究和應用BEV模型的核心思想是將車輛周圍的三維環境數據(如來自激光雷達和攝像頭的點云、圖像等數據)投影到俯視平面上生成二維的鳥瞰圖。這種將三維信息“壓平”成二維表示的方式,為自動駕駛系統的環境感知和理解帶來了重要優勢:鳥瞰圖提供了比直接的原始傳感器數據更加直觀和信息豐富的環境表示,可以更清晰地觀察道路、車輛、行人、標志等元素的位置和關系,增強自動駕駛對復雜環境的感知能力全局的俯視視角更有利于路徑規劃和避障系統進行決策,根據道路
24、和交通狀況規劃更合理穩定的路徑BEV模型可以將來自不同傳感器的輸入數據統一到一個共享表示中,為系統提供更加一致和全面的環境信息資料來源:BirdNet:a 3D Object Detection Framework from LiDAR information,Jorge Beltran等、浙商證券研究所網絡的三個輸出是:類別(綠色)、2d 邊界框(藍色)和偏航角(紅色)但是,BEV模型也存在一些問題亟待解決:從原始三維數據生成BEV表示需要進行大量坐標變換和數據處理,增加了計算量和對硬件的要求信息損失問題,三維信息投影到二維時難免會損失一些細節,如遮擋關系等不同傳感器到BEV坐標系的轉換也需
25、要進行復雜的標定和校準需要研究如何有效融合各種異構數據源,以生成更加準確和完整的BEVTransformer+BEV02172020年以來,Transformer+BEV結合正在成為自動駕駛領域的重要共識,推動自動駕駛技術進入嶄新發展階段將Transformer模型與BEV(鳥瞰視角)表示相結合的方法,正在成為自動駕駛領域的重要共識,推動完全自主駕駛的實現一方面,BEV可以高效表達自動駕駛系統周圍的豐富空間信息;另一方面,Transformer在處理序列數據和復雜上下文關系方面展現了獨特優勢,在自然語言處理等領域得到成功應用。兩者結合可以充分利用BEV提供的環境空間信息,以及Transform
26、er在多源異構數據建模方面的能力,實現更精確的環境感知、更長遠的運動規劃和更全局化的決策。資料來源:OCBEV:Object-Centric BEV Transformer for Multi-View 3D Object Detection,Zhangyang Qi等、浙商證券研究所圖:以對象為中心的Transformer+BEV的總體架構(a)對象對齊時間融合:首先根據車輛自身的移動情況,把當前時刻(t時刻)的鳥瞰視角地圖變形調整成上一時刻(t-1時刻)的樣子。這樣就可以根據對象在上一時刻的位置,結合速度預測出它當前的位置,從而實現對象在不同時刻地圖上的融合。(b)對象聚焦多視圖采樣:首先
27、在三維空間預設一些點,然后把這些點投影到圖像上的特征上。這樣不僅可以在整個高度范圍采樣,還可以對某些主要對象按照自適應和聚焦的方式,在它們所處的局部空間區域采樣更多點。(c)對象通知查詢增強:在編碼器處理圖像特征后,添加熱圖的監督信息。同時用檢測到對象高置信度位置對應的點來替換掉原本預設要查詢的一些點。GPT的出現對Transformer+BEV模型的產生起到了重要影響 GPT的成功表明了Transformer模型的潛力,促使更多研究者將Transformer應用到計算機視覺和自動駕駛領域,產生了Transformer+BEV的創新做法。GPT的預訓練思想為Transformer+BEV的預訓
28、練和遷移學習提供了借鑒,可以通過預訓練捕捉語義信息,然后遷移應用。OpenAI公開的代碼和模型也加速了Transformer類模型在各領域的研究進程。當前Transformer+BEV模型受關注,主要基于它綜合了Transformer和BEV各自的優勢 Transformer擅長處理序列數據,捕捉語義信息;而BEV提供場景整體觀,有利解析空間關系。兩者組合可實現互補,增強對復雜場景的理解表達。自動駕駛數據積累為訓練大模型奠定基礎。大數據支持學習更復雜特征,提升環境感知精度,也使端到端學習成為可能。提升安全性和泛化能力仍是自動駕駛核心難題。目前階段Transformer+BEV較好地結合語義理解
29、和多視角建模,可處理相對不常見、復雜或者挑戰性的交通場景或環境,具有很大潛力。Transformer+BEV0218資料來源:OCBEV:Object-Centric BEV Transformer for Multi-View 3D Object Detection,Zhangyang Qi等、浙商證券研究所占用網絡模型02192022年,特斯拉率先在自動駕駛系統中使用了占用網絡模型,實現了對道路場景的高效建模特斯拉在2023年AI Day公開了occupancy network(占用網絡)模型,基于學習進行三維重建,意圖為更精準地還原自動駕駛汽車行駛周圍3D環境,可視作BEV視圖的升華迭代
30、:BEV+Transformer的不足:鳥瞰圖為2D圖像,會缺失一些空間高度信息,無法真實反映物體在3D空間的實際占用體積,故而在BEV中更關心靜止物體(如路沿、車道線等),而空間目標的識別(如物體3D結構)難以識別占用網絡:現存三維表示方法(體素、網格、點云)在儲存、結構和是否利于學習方面均不夠完全理想,而占用網絡基于學習將三維曲面表示為深度神經網絡分類器的連續決策邊界,可以在沒有激光雷達提供點云數據的情況下對3D環境進行重建,且相較于激光雷達還可以更好地將感知到的3D幾何信息與語義信息融合,得到更加準確的三維場景信息資料來源:Cleantechnica、elon-musk-intervie
31、ws、浙商證券研究所圖:BEV鳥瞰視圖圖:占用網絡3D視圖特斯拉自動駕駛感知算法發展路徑解析02資料來源:華爾街日報、Auto-Data網站、特斯拉官網、infnews網站、EVANNEX網站、浙商證券研究所基于Mobileye的視覺算法技術:BEV:基于Mobileye的視覺算法技術(2014-2016):2014年到2016年期間,特斯拉自動駕駛系統采用了Mobileye的視覺算法技術。Mobileye為特斯拉第一代自動駕駛提供了單目相機系統,可以檢測車道線、車輛行人、交通標志牌,并分析自由空間。通過特征提取、目標檢測等算法,特斯拉能對前方道路情況進行感知并建模,為決策規劃提供環境輸入。雙
32、方合作推動特斯拉早期自動駕駛能力發展。后因Mobileye產品體系過于封閉,特斯拉決定自主研發感知系統。這一期間的合作積累為特斯拉奠定了自動駕駛視覺感知的基礎。BEV(2016-2021):從2016年特斯拉自研自動駕駛系統開始,特斯拉采用了鳥瞰視角(BEV)來建模自動駕駛系統的環境。BEV將多源傳感器數據投影到地面平面,可以直觀表達場景元素的空間關系,使自動駕駛系統更好地“看到”車輛周圍的全部情況。但BEV難以分析遠處目標的關聯性。特斯拉后來將BEV與Transformer等技術結合,以融合局部和全局信息。BEV奠定了特斯拉自動駕駛的環境建?;A。特斯拉在大量實際道路數據的支持下,不斷優化B
33、EV系統,以產生更精確的三維場景表示,為后續的規劃與控制提供輸入。Transformer+BEV(2021至今):2021年,在BEV的基礎上,特斯拉將Transformer引入感知系統。Transformer通過并行計算高效提取全局上下文信息,以彌補BEV難以建模遠距離依賴的不足。BEV+Transformer架構融合局部和全局信息,增強對復雜交通場景的理解表達能力。同時,特斯拉大規模預訓練該模型,運用海量實車數據,提升泛化能力,提升了特斯拉FSD系統的安全性和可靠性。在場景轉換、交通預測等情況下,Transformer+BEV展現出較強的魯棒性。特斯拉持續通過這一前沿架構迭代自動駕駛感知算
34、法,以處理更復雜的城市交通環境。特斯拉自動駕駛感知算法發展路徑解析02資料來源:特斯拉官網、浙商證券研究所基于Mobileye的視覺算法技術:BEV:占用網絡模型(2022至今):占用網絡是特斯拉在2022年應用到自動駕駛感知的一種技術,相較于BEV可以更精準地還原自動駕駛汽車行駛周圍3D環境,提升車輛的環境感知能力。占用網絡包含兩部分:一個編碼器學習豐富語義特征,一個解碼器可以生成三維場景表達。特斯拉使用車載攝像頭采集的大量行車數據,訓練占用網絡模型。解碼器部分能夠復原和想象各種場景,增強異常情況下的感知魯棒性。占用網絡技術使特斯拉可以充分利用非標注數據,有效補充標注數據集的不足。這對于提升
35、自動駕駛安全性、減少交通事故具有重要意義。特斯拉正在持續改進該技術在自動駕駛系統中的集成應用??偨Y:在傳感器方面,硬件升級為算法迭代提供了支持:特斯拉持續優化傳感器組合,從初期的單目攝像頭逐步增加到多目攝像頭、毫米波雷達、超聲波雷達等,豐富了自動駕駛對環境的感知輸入。在軟件算法方面,持續迭代優化,提升3D環境構建能力:早期使用的簡單卷積神經網絡逐漸發展為復雜的多傳感器數據融合框架,并增加了BEV空間表示層、Transformer序列建模模塊、占用網絡等前沿技術,顯著提升了建模能力和泛化性??梢钥闯?,特斯拉在算法框架設計上追求通用性,通過融合多種技術手段實現對復雜多變環境的魯棒感知和建模。軟硬件
36、的協同發展趨勢明顯,推動自動駕駛技術向量產方向演進:軟硬協同使得自動駕駛系統在不同的應用環境下都可以表現出較強的適應性,并且軟硬件的協調優化也使產品部署和更新更加便捷高效,成為自動駕駛產品實現規?;瘧玫年P鍵。特斯拉自動駕駛硬件解決方案發展路徑解析02資料來源:infnews官網、topcars網站、浙商證券研究所BEV:HW1.0:HW1.0基于Mobileye芯片的第一代駕駛輔助硬件。它使用了單個EQ3系列攝像頭,單個毫米波雷達和12個中程超聲波傳感器,毫米波雷達是由博世提供,攝像頭布置于后視鏡附近,硬件選型都是基于市場上成熟的供應商產品,在HW1.0階段特斯拉的主要工作是多傳感器融合+應
37、用層軟件開發。HW2.0/HW2.5:HW2.5是特斯拉設計的第二代駕駛輔助硬件的最終迭代版本,傳感器數量大幅提升,使用8個攝像頭,12個遠程超聲波傳感器和一個前置毫米波雷達,這套傳感器配置為特斯拉FSD功能打下良好的基礎,現在回看當時的特斯拉傳感器布局具有一定前瞻性。特斯拉基于英偉達Drive PX2開發一個全新的駕駛輔助硬件,MCU芯片采用英飛凌TriCore系列產品,毫米波雷達仍然是博世產品,該駕駛輔助硬件安裝于手套箱下方,這個階段特斯拉掌握圖像識別算法+多傳感器融合+應用層軟件開發。HW3.0:HW3.0是特斯拉駕駛輔助硬件的重大革新,首次采用自研的自動駕駛芯片,拋棄英飛凌/英偉達的產
38、品,自研高度集成的SoC+MCU芯片,具備全套芯片設計+圖像識別算法+多傳感器融合+應用層軟件開發。HW4.0:HW4.0在歐洲獲批用于新款S和X車型,預計硬件4.0將利用臺積電的4/5nm工藝并提供5MP相機,檢測遠處物體的能力有望提升,Autopilot能力進一步增強。更新后的硬件將包含:一臺新的FSD計算機,預計其功率將是目前HW3.0 FSD計算機的4倍先進的高清雷達用于GPS的GNSS天線將進行升級,這將進一步實現與其他衛星導航系統的兼容性,包括GLONASS,北斗和伽利略特斯拉自動駕駛硬件解決方案發展路徑解析02BEV:表:特斯拉自動駕駛硬件方案對比總結資料來源:infnews官網
39、、Tesla updates網站、浙商證券研究所項目HW1.0HW2.0HW2.5HW3.0前置攝像頭1個1-Narrow(35)1-Main(50)1-Wide(120)B柱攝像頭(汽車側柱)0Left:80 m(260 ft)100 m(330 ft)Right:80 m(260 ft)100 m(330 ft)前置雷達160 m525 ft170 m558 ft超聲波傳感器12(5m/16ft range)12(8m/26ft range)核心處理器Mobileye EyeQ3*1NVIDIA DRIVE PX 2 AINVIDIA DRIVE PX 2(+additional GPU)
40、FSD 芯片大模型對自動駕駛行業的賦能與影響03Partone24大模型對自動駕駛行業的賦能0325資料來源:Attention Is All You Need,Ashish Vaswani等、浙商證券研究所 大模型通過預訓練學習提取強大的語義特征表示,這提高了模型對復雜和異常場景的理解能力,增強了感知的魯棒性。同時具備更強的泛化能力,能夠感知訓練數據以外的新環境。提升環境感知的魯棒性和泛化能力:大模型具備直接從原始傳感器輸入到駕駛決策輸出的強大建模能力,可以實現端到端的自動駕駛學習,簡化系統架構。實現端到端的學習:大模型通過精細建模順序,可以推斷時間維度上的因果關系,更好地預測動態環境的變化
41、。強化時間維度的理解:大模型擁有足夠的表達能力,可以融合不同類型的多模態輸入(圖像、雷達等),實現對整體場景的多維理解。多模態融合理解場景:依靠大模型的無監督或自監督預訓練,可以降低對人工設計特征工程和數據標注的依賴。減少人工設計和標注依賴:自動駕駛領域的大模型發展相對大語言模型滯后,大約始于2019年,吸取了GPT等模型成功經驗以GPT為代表的大模型通常包含億級甚至百億級參數,采用Transformer結構進行分布式訓練,以提升模型能力。GPT的成功激發了自動駕駛研究者利用類似架構進行端到端學習,甚至涌現出專為自動駕駛設計的預訓練模型。這些努力為自動駕駛行業帶來新思路,大模型通過強大的數據分
42、析和模式識別能力,增強了自動駕駛系統的安全性、效率和用戶體驗,實現了更準確的環境感知、智能決策。大模型對自動駕駛行業的賦能0326資料來源:工信部官網、深圳市政府官網、Electrek網站、teslarati網站、特斯拉官網、heyupnow網站、浙商證券研究所大模型的應用加速模型端的成熟,為L3/L4級別的自動駕駛技術落地提供了更加明確的預期模型的成熟使得自動駕駛系統更加穩定和可靠,為商業化應用奠定了基礎。隨著深度學習和神經網絡技術的迅速發展,模型在感知、決策和控制等方面取得了顯著進展,向著高效地處理大量傳感器數據,準確識別交通標志、行人、車輛等、實現環境感知的方向發展。此外,模型也能夠輔助
43、實時路徑規劃和決策制定,使車輛能夠在復雜的交通環境中安全行駛。大模型的應用為L3/L4級別的自動駕駛技術落地提供了更加明確的預期,尤其特斯拉在前沿技術領域的探索,正在成為實現L3/L4級別自動駕駛落地的風向標。特斯拉提出的Transformer+BEV+占用網絡算法讓車輛能夠更精準地理解復雜的交通環境,為L3/L4級別的自動駕駛系統提供更強的環境感知能力,從而在城市道路和高速公路等特定場景中更自信地行駛。表:特斯拉新技術簡表表:國內重要自動駕駛政策節選日期具體內容2017/8/9特斯拉的ModelS/X還添加了一臺新的機載計算機,更新后包含輔助GPU,以提高計算能力。新的 Autopilot
44、硬件套件內部稱為“HW 2.5”。2019/3/23特斯拉的Tesla已開始生產配備最新Autopilot硬件的ModelS/X車輛,以支持全自動駕駛功能。新硬件被稱為“HW3”,是特斯拉半自動駕駛輔助功能的下一代產品,包括自動駕駛導航、高級召喚、自動變道、自動停車以及對交通信號燈做出響應的能力。2022/10/4特斯拉宣布從Model3和ModelY中移除超聲波傳感器(USS)。在移除USS的同時,還同時推出了基于視覺的占用網絡(目前用于全自動駕駛(FSD)Beta 版),以取代 USS 生成的輸入。2023/2/12特斯拉獲得荷蘭汽車管理局頒發的變更批準證書。該證書確認該公司正在為Mode
45、lS/X配備硬件4.0芯片,從而能夠在歐洲為這些車型提供最新的FSD軟件和硬件。日期部門具體內容2018/4/11工信部、公安部、交通運輸部智能網聯汽車道路測試管理規范(試行)規定了智能網聯汽車上路測試的申請條件2021/3/23深圳市人民代表大會常務委員會深圳經濟特區智能網聯汽車管理條例(征求意見稿)明確規定智能網聯汽車經登記取得登記證書、號牌和行駛證后,可上特區道路行駛、進一步放寬智能網聯汽車道路測試和示范應用相關條件,規定智能網聯汽車可以上特區的高速公路和城市快速路開展道路測試和示范應用2022/6/23深圳市人民代表大會常務委員會深圳經濟特區智能網聯汽車管理條例是全國首個對L3及以上自
46、動駕駛權責、定義等重要議題進行詳細劃分的官方管理文件,為已經達到有條件自動駕駛的車型合法上路,掃除政策障礙。2023/6/21工信部工信部表示今后一段時間要深化測試示范應用,啟動智能網聯汽車準入和上路通行試點,組織開展城市級“車路云一體化”示范應用,支持有條件的自動駕駛(L3級別的自動駕駛)。L3自動駕駛落地展望0327資料來源:浙商證券研究所總結整理技術成本監管安全持續降本:下放前幾年的中端芯片到低端產品上,采用技術已經成熟的自動駕駛計算平臺硬件配置優化:優化感知系統硬件配置,采用國產性價比較高的激光雷達等硬件降低成本工程化能力提升:采用雙芯片策略提高整體算力,提升性價比,降低成本算法創新:
47、持續推出前沿技術,如Transformer+BEV、占用網絡模型等,增強算法的環境感知能力;同時優化算法對硬件的利用效能,如行泊一體算法的發展。硬件迭代:芯片能力持續增強,高通、英偉達、地平線等公司單芯片算力規模持續提升,帶來單位算力成本的降低;特斯拉推出Dojo超級計算機,加速模型算法的訓練與迭代。測試和驗證:仿真技術的完善,使得模擬測試以彌補實車測試的不足。汽車通信與數據安全:國家標準和執行細則持續落地出臺,落實安全措施與責任主體智能網聯汽車準入和商業試點:已針對L3和L4級汽車出臺管理辦法;權責認定:仍需明確不同自動駕駛級別下自動駕駛系統與人駕駛員的權責關系,特別是在L3級,需要定義事故
48、責任,考慮人車交互設計和駕駛員監控要求。安全監管:完善自動駕駛安全監管體系,制定具體的測試評價標準,監測系統在交通環境中的安全性和可靠性。建立版本管理和事故責任追溯機制。L3自動駕駛落地展望:成本0328資料來源:汽車之家、懂車帝、Apollo官網、福布斯新聞、百度有駕、各車企官網、infnews、IEEE Spectrum網站、forbes網站、搜狐科技、electrek、浙商證券研究所成本仍有下降空間,低端車配載有助于加速量產落地搭載高級別自動駕駛系統的車型正在加速落地,但由于技術復雜性和成本考量,目前主要集中于高端車型領域。根據市場現狀,搭載L2+自動駕駛系統的車型售價約在12萬至46萬
49、元區間,搭載L3的車型售價約在45.8萬至133.9萬元區間。我們認為要實現自動駕駛向低端車型的快速滲透,成本的降低是關鍵。車企可以通過多種方式來降低硬件成本:采用國產的激光雷達(如禾賽、華為和大疆等,且根據搜狐科技禾賽近三年不斷下探激光雷達價格,Yole機構預計激光雷達市場在未來5年內增長15倍,達到47億美元。)由于規模經濟效應和市場競爭加劇,預計未來激光雷達等感知系統硬件配置價格將持續下降。隨著芯片性能迭代,老款芯片價格降低,可用于低端車型從而降低成本,且老款的芯片也有著成熟的技術和調校提升工程化能力,如采用雙芯片的策略也可以提高算力,提升車輛性價比,例如極氪001就采用了雙芯片(Mob
50、ileye EyeQ5H)的策略,使得總算力達到48 TOPS,可以實現L3以上級別自動駕駛??傮w來看,我們認為自動駕駛系統成本還具有較大下降空間,低成本的自動駕駛系統有望在兩三年內快速向低價位車型滲透,加速使自動駕駛量產推廣。表:國內外部分L3車輛售價表:國內部分L2+車輛售價車企車型售價自動駕駛級別理想理想L731.98萬-37.98萬元L2+理想理想L833.98萬-39.98萬元L2+理想理想L942.98萬-45.98萬元L2+深藍汽車深藍S714.99萬-20.29萬元L2+深藍汽車深藍SL0314.59萬-15.69萬元L2+上汽大通大通MIFA 927.99萬-43.99萬元L
51、2+上汽榮威榮威RX512.29萬-15.59萬元L2+吉利博越L12.57萬-17.07萬元L2+領克領克09 EM-P遠航版33.98萬元-34.98萬元L2+車型售價自動駕駛級別本田Legend Hybrid EX1100萬日元(約54.74萬元)L3奔馳EQS88.10-133.90萬元L3奧迪A890,600歐元(約71.04萬元)L3蔚來ET745.80-53.60萬元L3蔚來ES849.60-65.60萬元L3L3自動駕駛落地展望:技術0329資料來源:北京市高級別自動駕駛示范區公眾號、浙商證券研究所未來高級別自動駕駛技術的發展仍將沿著算法和硬件兩條主線并進算法方面,算法框架的優
52、化,帶來算力利用效率的提升。特斯拉的前沿算法方案為行業提供指引,引領迭代方向,如Transformer+BEV和占用網絡模型等先進技術,國內各大車企也紛紛跟上潮流。此外,隨著大模型在自動駕駛領域的運用,行泊一體方案的發展,進一步優化算法對硬件的利用效能,減少自動駕駛汽車對高端芯片的依賴,促進L3級自動駕駛汽車的落地。硬件設備方面,自動駕駛系統需要大量并行計算,因此各大廠商推出了專用芯片,擁有更強大的并行處理能力。高通、英偉達地平線等企業芯片產品技術不斷更新迭代,單芯片算力規模持續提升,帶來的是單位算力成本的降低。雙芯片策略已在市場上廣泛運用,采用雙芯片策略能夠提升芯片整體算力,在一定程度上解決
53、算力短缺的問題。特斯拉發布Dojo超級計算機,應用于對大量視頻進行無監督的大規模訓練,進一步推進自動駕駛大模型的發展。企業技術路線/信息小馬智行自研BEV,導航地圖實現高速與城市NOA功能毫末智行NOH,空間、時間和傳感器BEV輕舟智航OmniNet,前融合和BEV空間特征融合地平線SuperDrive 感知融合BEV技術紐勱科技BEVSegFormer,任意配置相機進行 BEV語義分割百度UniBEV車端和路端感知數據放到同一個坐標系表:部分國內自動駕駛公司技術路徑整理L3自動駕駛落地展望:監管0330資料來源:工信部官網、深圳市政府官網、浙商證券研究所我國高級別自動駕駛的法規政策還在逐步完
54、善之中,法規政策持續落地一方面,工信部已經針對L3及L4級別自動駕駛車輛出臺管理辦法,落實了智能網聯汽車的準入和商業通行試點,明確了智能網聯汽車的定義和分級這為自動駕駛車輛的合法上路掃清了政策障礙。但仍需進一步明確自動駕駛系統與人駕駛員在不同自動駕駛級別下的權責關系。另一方面,自動駕駛安全監管仍有待持續完善。目前尚未建立自動駕駛系統事故責任追溯機制,也未制定明確統一的自動駕駛測試評價標準。預計未來部門將出臺更為細致的安全監管措施。表:深圳市自動駕駛試點和立法推進節奏日期部門具體內容2018/4/11工信部、公安部、交通運輸部智能網聯汽車道路測試管理規范(試行)規定了智能網聯汽車上路測試的申請條
55、件2018/5/14深圳市交通運輸局深圳市為騰訊自動駕駛實驗室發放全市首張智能網聯汽車道路測試牌照,可供L3汽車上路測試2018/5/23深圳市交通運輸局深圳市關于貫徹落實的實施意見進一步細化了深圳市申請道路測試的條件,并明確每臺測試車輛應配備至少一名測試安全員2018/10/30深圳市交通運輸局深圳市智能網聯汽車道路測試開放道路技術要求(試行)公布了首批智能駕駛的開放路測道路2020/8/11深圳市交通運輸局深圳市關于推進智能網聯汽車應用示范的指導意見允許企業以智能網聯汽車為載體在指定的開放道路進行載人、城市環衛作業和載貨及其它特種作業(均為非營利性)2021/3/23深圳市人民代表大會常務
56、委員會深圳經濟特區智能網聯汽車管理條例(征求意見稿)明確規定智能網聯汽車經登記取得登記證書、號牌和行駛證后,可上特區道路行駛、進一步放寬智能網聯汽車道路測試和示范應用相關條件,規定智能網聯汽車可以上特區的高速公路和城市快速路開展道路測試和示范應用2021/7/30工信部關于加強智能網聯汽車生產企業及產品準入管理的意見規定了自動駕駛汽車及其生產企業的準入管理要求,為L3及L4級自動駕駛汽車的規?;慨a做準備。2022/2/14深圳市蘿卜運力(深圳)科技有限公司獲批深圳市智能網聯汽車示范應用,百度自動駕駛出行服務平臺“蘿卜快跑”正式落地深圳市南山區,面向市民提供自動駕駛示范應用出行服務2022/6
57、/23深圳市人民代表大會常務委員會深圳經濟特區智能網聯汽車管理條例是全國首個對L3及以上自動駕駛權責、定義等重要議題進行詳細劃分的官方管理文件,為已經達到有條件自動駕駛的車型合法上路,掃除政策障礙。2022/11/2工信部、公安部關于開展智能網聯汽車準入和通行試點工作的通知(征求意見稿)針對L3和L4級別自動駕駛推出管理辦法。2023/6/17深圳市蘿卜快跑獲得由深圳市坪山區頒發的首批智能網聯汽車無人商業化試點通知書,可在深圳市坪山區開展L4級無人駕駛商業化收費運營2023/6/21工信部工信部表示今后一段時間要深化測試示范應用,啟動智能網聯汽車準入和上路通行試點,組織開展城市級“車路云一體化
58、”示范應用,支持有條件的自動駕駛(L3級別的自動駕駛)。L3自動駕駛落地展望:安全0331資料來源:工信部官網、國家車聯網產業標準體系建設指南(智能網聯汽車)(2023版)、央視網新聞、人民網、浙商證券研究所安全性自動駕駛汽車實現商業化落地必不可少的重要因素為保證自動駕駛系統的安全可靠,按照國家監管要求,自動駕駛車輛必須經過5000公里以上的封閉場地訓練評估,且測試駕駛員須通過不少于50小時培訓,并通過車輛安全技術檢驗后方可申請上路測試資格。目前我國智能網聯汽車道路測試總里程已超7000萬公里,我們預計L3級及以上自動駕駛汽車開放個人使用上路試點區域仍需一定的時間才能實現。汽車通信安全和數據安
59、全也需達到國標或相關條例要求。我們預計未來中國會參考歐美國家實踐,進一步細化安全要求,加強相關法規制度建設,如制定自動駕駛汽車安全評估標準、明確自動駕駛系統開發生命周期各階段的安全保障要求、建立自動駕駛汽車事故責任認定機制等。表:部分自動駕駛汽車安全標準標準定義和分類國家標準號對標國際標準號道路車輛 預期功能安全國家標準20203970-T-339 國際標準ISO 21448汽車整車信息安全技術要求國家標準20214422-0-339國際標準UN R155道路車輛 信息安全工程國家標準20230389-T-339汽車信息安全應急響應管理規范國家標準20213611-T-339汽車信息安全通用技
60、術要求國家標準GB/T 40861-2021車載信息交互系統信息安全技術要求及試驗方法國家標準GB/T 40856-2021電動汽車遠程服務與管理系統信息安全技術要求及試驗方法國家標準GB/T 40855-2021汽車網關信息安全技術要求及試驗方法國家標準GB/T 40857-2021電動汽車充電系統信息安全技術要求及試驗方法國家標準GB/T 41578-2022汽車診斷接口信息安全技術要求及試驗方法國家標準20211169-T-339車企車型價位上市時間自動駕駛級別自動駕駛芯片自動駕駛系統上汽智己LS728.98-45.98萬2302L2/L3Nvidia Orin X智己IM AD NOA
61、 2.0智能駕駛輔助系統蔚來蔚來ET742.80-53.60萬2304L2/L3NVIDIA DRIVE OrinNAD系統SmartSmart精靈#320.99-28.99萬2306L2Veoneer高算力芯片smart Pilot Assist智能輔助駕駛系統理想理想L833.98-39.98萬2302L2地平線征程5理想AD Pro系統華為問界M524.98-33.18萬2307L2MDC智能駕駛計算平臺華為ADS 2.0合眾新能源哪吒S15.98-32.68萬2307L2雙地平線征程3NETA PILOT2.5比亞迪BYD漢EV19.68-32.18萬2303L2未知DiPilot智能
62、駕駛輔助系統小鵬小鵬G620.99-27.69萬2306L2雙英偉達 Orin-XXNGP各車廠自動駕駛布局節奏0332技術逐步成熟,政策有望為高級別自動駕駛落地提供催化L3/L4級別自動駕駛技術作為自動駕駛領域的重要里程碑,一直備受關注。盡管技術已經達到一定成熟階段,但其落地仍受政策影響,目前正處在計劃之中。然而,隨著技術的不斷發展,若政策能夠順應趨勢,將有望推動各家車廠加速自動駕駛布局的節奏。L3級別自動駕駛要求車輛在特定環境下實現自主駕駛,而L4級別更進一步,使車輛在特定區域內能夠完全自主駕駛。技術發展已經使得L4級自動駕駛汽車具備在特定場景下實現自主駕駛的能力,目前已經獲批在特定道路上
63、進行商業化試點運營。目前政策仍未放開個人使用L3/L4級別的自動駕駛,但隨著自動駕駛技術逐步成熟,安全性能顯著提升,政策環境有望催化L3/L4級別自動駕駛技術的量產落地,對于政策的樂觀預期亦有助于加速車廠在高級別自動駕駛領域的布局節奏。資料來源:懂車帝、汽車之家、智己汽車官網、快車評、autolab、哪吒汽車官網、小鵬汽車官網、浙商證券研究所表:部分車廠代表車型自動駕駛相關信息各車廠自動駕駛布局節奏0333國內主機廠平均預計2024年左右落地L3級別自動駕駛根據佐思汽車研究對于國內主機廠自動駕駛落地時間的規劃統計,各主機廠自2021年開始加速對L2+自動駕駛的布局,且預計在2024年左右實現L
64、2+(接近L3)或者更高級別的自動駕駛功能的落地。資料來源:佐思汽研2022 年中國乘用車自主品牌主機廠ADAS和自動駕駛研究報告、浙商證券研究所表:部分國內主機廠自動駕駛落地時間及規劃主機廠長安L2.5長城比亞迪一汽吉利廣汽北汽上汽奇瑞東風L2L2.5L2.9L4L2.9L2L1L4L1L4L1L2L2.5L2.9L4L1L2L2.5L2.9L4L1L2L2.5L2.9L4L1L2L2.5L2.9L3L1L2L2.5L3L4L1L2L2.5L3L42025L1L2L2.9L42019202020212022202320242015201620172018L1L2L2.5L2.9L4各車廠自動
65、駕駛布局節奏0334車廠/Tier 1 大模型研發布局資料來源:汽車之心、Cnmo新聞、it之家、商湯科技官網、Apollo官網、汽車之家、華為云官網、央廣網、財聯社、新智元、浙商證券研究所主機廠/Tier 1大模型發布日期模型功能(主要)現有應用場景應用車型毫末智行DriveGPT雪湖 海若23.04認知決策,之后擴展應用到城市 NOH、捷徑推薦、智能陪練以及脫困場景中;最終實現端到端自動駕駛認知決策(合理的邏輯告訴駕駛者,車輛為何選擇這樣的決策動作)新摩卡 DHT-PHEV理想Mind GPT23.06文本生成能力、語言理解能力、知識問答能力以及邏輯推理能力文本生成能力、語言理解能力、知識
66、問答能力以及邏輯推理能力暫無具體應用車型廣汽廣汽AI大模型23.08智能語音交互;智能駕駛;智能網聯全鏈路升級智能語音交互場景埃安昊鉑 GT 吉利汽車全場景AI大模型23.07繪畫、音樂、語言;自動駕駛車外語音交互銀河 L6 商湯絕影日日新大模型23.04BEV環視通用感知;感知決策一體;語言大模型BEV環視通用感知;感知決策一體;語言大模型暫無具體應用車型百度文心大模型22.11自動駕駛感知(遠視距視覺感知、多模態端到端感知、點云感、數據挖掘);出行規劃、用車顧問、知識問答、靈感繪畫自動駕駛感知(遠視距視覺感知、多模態端到端感知、點云感、數據挖掘);出行規劃、用車顧問、知識問答、靈感繪畫暫無
67、具體應用車型華為盤古大模型23.07場景生成大模型,場景理解大模型,預標注大模型,多模態檢索大模型場景生成大模型,場景理解大模型,預標注大模型,多模態檢索大模型暫無具體應用車型奇瑞LION AI大模型23.08自然語言處理、語音交互自然語言處理、語音交互星途星紀元ES小鵬BEV+Transformer23.06不依賴高精地圖,感知路線,算力選擇不依賴高精地圖,感知路線,算力選擇小鵬G6特斯拉FSD Beta V1223.08端到端AI自動駕駛端到端AI自動駕駛特斯拉Model S表:車廠/Tier1 大模型研發布局(不完全統計)風險提示04Partone35風險提示04361、自動駕駛算法研發
68、與迭代不及預期2、智能網聯汽車政策落地不及預期3、由于中美關系影響導致自動駕駛芯片供應鏈出現波動的風險4、行業競爭加劇導致價格戰的風險5、報告中的統計信息均為基于公開信息的不完全統計,各公司實時動態和最新發展可能存在動態調整點擊此處添加標題添加標題點擊此處添加標題點擊此處添加標題點擊此處添加標題點擊此處添加標題點擊此處添加標題添加標題點擊此處添加標題點擊此處添加標題添加標題點擊此處添加標題添加標題95%行業評級與免責聲明37行業的投資評級以報告日后的6個月內,行業指數相對于滬深300指數的漲跌幅為標準,定義如下:1、看好 :行業指數相對于滬深300指數表現10%以上;2、中性 :行業指數相對于
69、滬深300指數表現10%10%以上;3、看淡 :行業指數相對于滬深300指數表現10%以下。我們在此提醒您,不同證券研究機構采用不同的評級術語及評級標準。我們采用的是相對評級體系,表示投資的相對比重。建議:投資者買入或者賣出證券的決定取決于個人的實際情況,比如當前的持倉結構以及其他需要考慮的因素。投資者不應僅僅依靠投資評級來推斷結論行業評級與免責聲明38法律聲明及風險提示本報告由浙商證券股份有限公司(已具備中國證監會批復的證券投資咨詢業務資格,經營許可證編號為:Z39833000)制作。本報告中的信息均來源于我們認為可靠的已公開資料,但浙商證券股份有限公司及其關聯機構(以下統稱“本公司”)對這
70、些信息的真實性、準確性及完整性不作任何保證,也不保證所包含的信息和建議不發生任何變更。本公司沒有將變更的信息和建議向報告所有接收者進行更新的義務。本報告僅供本公司的客戶作參考之用。本公司不會因接收人收到本報告而視其為本公司的當然客戶。本報告僅反映報告作者的出具日的觀點和判斷,在任何情況下,本報告中的信息或所表述的意見均不構成對任何人的投資建議,投資者應當對本報告中的信息和意見進行獨立評估,并應同時考量各自的投資目的、財務狀況和特定需求。對依據或者使用本報告所造成的一切后果,本公司及/或其關聯人員均不承擔任何法律責任。本公司的交易人員以及其他專業人士可能會依據不同假設和標準、采用不同的分析方法而
71、口頭或書面發表與本報告意見及建議不一致的市場評論和/或交易觀點。本公司沒有將此意見及建議向報告所有接收者進行更新的義務。本公司的資產管理公司、自營部門以及其他投資業務部門可能獨立做出與本報告中的意見或建議不一致的投資決策。本報告版權均歸本公司所有,未經本公司事先書面授權,任何機構或個人不得以任何形式復制、發布、傳播本報告的全部或部分內容。經授權刊載、轉發本報告或者摘要的,應當注明本報告發布人和發布日期,并提示使用本報告的風險。未經授權或未按要求刊載、轉發本報告的,應當承擔相應的法律責任。本公司將保留向其追究法律責任的權利。聯系方式39浙商證券研究所上??偛康刂罚簵罡吣下?29號陸家嘴世紀金融廣場1號樓25層北京地址:北京市東城區朝陽門北大街8號富華大廈E座4層深圳地址:廣東省深圳市福田區廣電金融中心33層郵政編碼:200127 電話:(8621)80108518 傳真:(8621)80106010