2023年AI大模型在自動駕駛中的應用分析報告.pdf

編號:124816 PDF 29頁 3.61MB 下載積分:VIP專享
下載報告請您先登錄!

2023年AI大模型在自動駕駛中的應用分析報告.pdf

1、2023 年深度行業分析研究報告 2 內容目錄內容目錄 1.AI 大模型如何應用于自動駕駛算法中?.4 1.1.神經網絡加快自動駕駛感知算法發展,小模型向大模型迭代趨勢明確.4 1.1.1.1.深度神經網絡 DNN 是人工智能的開端.5 1.1.1.2.卷積神經網絡 CNN 廣泛用于特征提取.5 1.1.1.3.循環神經網絡 RNN 有效處理有時間序列信息.7 1.1.2.Transformer 大模型的注意力機制成為自動駕駛感知算法的利器.8 1.2.特征級融合逐步取代后融合,BEV+Transformer 為當前主流方案.10 1.2.1.自動駕駛感知技術從后融合向特征級融合迭代趨勢明確.

2、10 1.2.2.Transformer 大幅提升 BEV 空間中的特征級融合效果.12 2.AI 大模型的應用對自動駕駛領域所帶來的好處?.15 2.1.城市 NGP 落地在即,AI 大模型的應用驅動自動駕駛算法具備更強的泛化能力.15 2.2.從特斯拉感知算法迭代歷程看 AI 大模型對城市 NGP 的賦能方向.17 2.2.1.第一階段:BEV+transformer,實現“脫高精度地圖”.18 2.2.2.第二階段:升級到占用網絡,實現“脫激光雷達”.21 2.2.3.第三階段:從感知到決策控制端到端的自動駕駛模型有望成為未來發展方向.22 3.AI 大模型應用于自動駕駛中的前置條件?.

3、23 3.1.條件一:具備相當數量的里程數據,因而自動標注+仿真平臺環節將尤為重要.23 3.2.條件二:具備相當算力的云端訓練平臺,因而超算中心將成為主機廠必要基礎設施.26 4.關注標的.28 4.1.德賽西威.28 4.2.經緯恒潤.28 4.3.寒武紀.29 圖表目錄圖表目錄 圖 1.自動駕駛系統分為感知、決策和執行三部分.4 圖 2.一個感知機就類似一個生物神經元.5 圖 3.DNN 架構:不同層感知機全連接,逐層單向傳遞信號.5 圖 4.人類能夠通過觀察特征高效判別人臉.6 圖 5.CNN 相比于 DNN 在全連接層之前加入卷積/池化層.6 圖 6.CNN 通過卷積和池化操作提取圖

4、像特征并降低數據維度.7 圖 7.多次池化可能丟失特征位置信息,CNN 可能誤判.7 圖 8.RNN 借助循環核提取時間特征,實現連續數據預測.8 圖 9.Transformer 的目標是尋找元素間的權重關系.8 圖 10.Vision Transformer 模型架構.8 圖 11.注意力機制能夠獲得一個元素和其他元素多角度相關度的矩陣.9 圖 12.編碼器-解碼器架構.9 圖 13.transformer 架構.10 圖 14.按照融合環節不同分為前-特征-后融合.11 圖 15.后融合過程.11 圖 16.前融合過程.12 PZdUuUlYlXoMsQnQ8OcM8OmOoOsQtQlO

5、mMsPfQoOqN6MpOoOxNrNtNMYqMxO 3 圖 17.特征級融合過程.12 圖 18.圖像空間中的感知結果通過后融合投影到 BEV 空間中出現嚴重的失真.13 圖 19.BEV 感知框架.13 圖 20.英偉達 LSS 算法基本架構.14 圖 21.特斯拉基于 Transformer 的 BEV 空間轉換架構.14 圖 22.BEV 轉換過程.15 圖 23.基于交叉注意力機制在 BEV 空間內做特征級融合的效果遠好于基于規則的方法在BEV 空間內后融合.15 圖 24.城市場景具有高頻、剛需特征,落地價值凸顯.16 圖 25.高速場景自動駕駛 Corner case 較少.

6、17 圖 26.城市場景自動駕駛 Corner case 大幅提升.17 圖 27.特斯拉自動駕駛算法迭代歷程.18 圖 28.BEV 鳥瞰圖視角.19 圖 29.特斯拉 BEV 語義地圖.20 圖 30.理想 BEV 語義地圖.20 圖 31.XNet 感知架構重感知、輕地圖.20 圖 32.BEV 與占用網絡效果對比.21 圖 33.BEV 與占用網絡效果對比.22 圖 34.深度強化學習典型框架.23 圖 35.車道保持功能的端到端訓練框架.23 圖 36.特斯拉數據引擎.24 圖 37.特斯拉自動標注系統迭代歷程.24 圖 38.毫末視頻自監督大模型.25 圖 39.仿真場景中對同一路

7、口生成不同街景進行場景泛化.26 圖 40.對統一路口生成不同車道關系進行場景泛化.26 圖 41.特斯拉超算中心.27 圖 42.搭載超算中心投資金額.28 圖 43.搭載超算中心時間周期.28 圖 44.經緯恒潤自動駕駛域控制器產品.29 表 1:2023 年多家主機廠預計推出城市領航輔助駕駛.16 表 2:高精地圖在城市道路覆蓋度有限.18 表 3:傳統地圖與高精地圖盈利模式的區別.19 表 4:主要自動駕駛廠商宣布脫圖時間.21 表 5:自動駕駛廠商超算中心建設情況.27 4 1.1.A AI I 大模型如何應用于自動駕駛算法中?大模型如何應用于自動駕駛算法中?算法是決定算法是決定自動

8、駕駛車輛自動駕駛車輛感知能力的核心要素。感知能力的核心要素。當前主流的自動駕駛模型框架分為感知、規劃決策和執行三部分。感知模塊是自動駕駛系統的眼睛,核心任務包括對采集圖像進行檢測、分割等,是后續決策層的基礎,決定了整個自動駕駛模型的上限,在自動駕駛系統中至關重要。感知模塊硬件部分主要為傳感器,軟件為感知算法,其中算法是決定自動駕駛車輛感知能力的核心要素。圖圖1.1.自動駕駛系統分為感知、決策和執行三部分自動駕駛系統分為感知、決策和執行三部分 資料來源:安信證券研究中心繪制 1.1.1.1.神經網絡加快自動駕駛感知算法發展,小模型向大模型迭代趨勢明確神經網絡加快自動駕駛感知算法發展,小模型向大模

9、型迭代趨勢明確 神經網絡模型的應用驅動感知算法高速發展。神經網絡模型的應用驅動感知算法高速發展。早在上世紀 70 年代,學術院校和科研機構展開對自動駕駛技術的探索,早期的自動駕駛感知算法主要是基于傳統計算機視覺技術,直到 2010 年之后隨著深度學習技術的發展,神經網絡被引入到自動駕駛感知算法中,自動駕駛汽車的感知效果有了質的提升。應用于感知層面的神經網絡模型可以分為兩類,一類是應用于感知層面的神經網絡模型可以分為兩類,一類是以以 CNNCNN、RNNRNN 為代表的小模型,另一為代表的小模型,另一類是類是 T Transformerransformer 大模型。大模型。神經網絡是一種受生物神

10、經元啟發而產生的深度學習方法,由眾多的感知機構成。感知機類似于生物學中的神經元,輸入信號經過加權平均運算,若超過某一個閾值則向后傳遞信號,否則被抑制。不同的神經網絡模型實際就是對感知機之間設定不同的邏輯關系。單個感知機工作的過程為:1)感知機前端相當于神經元樹突,接受輸入信號 x,可以以向量表示 x=(a,b,c),其中 a、b、c 分別來自上一個神經元或原始圖像。2)輸入信號與連接權重向量 w=(w1,w2,w3)進行內積運算,這實際是對輸入信號進行加權平均。3)在相當于神經元軸突的感知機后端設定一個閾值 z,當加權平均值達到閾值即 xwT+z0,則感知機被激活向后傳遞信號,否則感知機被抑制

11、。4)此外,引入非線性因素保證輸出連續,可以對 xwT+b 整體施加一個激活函數。5 圖圖2.2.一一個感知機就類似一個感知機就類似一個生物神經元個生物神經元 資料來源:,安信證券研究中心繪制 1.1.1.1.深度神經網絡 DNN 是人工智能的開端 深度神經網絡(DNN)又叫多層感知機神經網絡,其中有三個基本類型的層:輸入層、隱藏層(或者叫中間層,可以有多個)、輸出層。不同層之間的感知機全連接,在推理時,前向(從輸入層到隱藏層到輸出層)傳遞信號得到推理結果。在學習時則將誤差(真實值和推理值的偏差)反向傳遞(從輸出層到隱藏層到輸入層),實現對感知機參數(連接權重和閾值)的更新,直至找到使得誤差最

12、小的一組感知機參數。在自動駕駛感知模塊中在自動駕駛感知模塊中輸入數據輸入數據為圖像,而為圖像,而圖像具有高維數(對比時間序列圖像具有高維數(對比時間序列通常通常只是一維向量),對其識別時需要設置大量只是一維向量),對其識別時需要設置大量輸入輸入神經元神經元以及多個以及多個中間層中間層,模型,模型參數參數量大難以訓練量大難以訓練且且消耗消耗算力算力高高,并可能帶來過擬合的并可能帶來過擬合的問題問題。圖圖3.3.DNN 架構:不同層感知機全連接,逐層單向傳遞信號架構:不同層感知機全連接,逐層單向傳遞信號 資料來源:安信證券研究中心繪制 1.1.1.2.卷積神經網絡 CNN 廣泛用于特征提取 DNN

13、 識別圖像的本質是對每一個像素點進行比對學習,因此效率較低。事實上,人類在對圖像進行識別是并不需要對像素點進行逐個對比,而是通過圖像的特征進行識別。例如識別人臉時,并不需要對每一個像素點都仔細觀比對,而是先搜索臉部的輪廓以及眼睛、鼻子等特征,當這些特征同時出現,就可以判斷圖片中是一張人臉,基于這種思想,基于這種思想,C CNNNN 卷積卷積神經網絡神經網絡應運而生應運而生,本質上是本質上是在信息傳入在信息傳入傳統神經網絡傳統神經網絡前先做一個特征的提取前先做一個特征的提取并進行數據并進行數據降維,降維,因此因此 C CNNNN 圖像處理圖像處理高緯度向量的高緯度向量的任務任務上更加高效上更加高

14、效。6 圖圖4.4.人類能夠通過觀察特征高效判別人臉人類能夠通過觀察特征高效判別人臉 資料來源:安信證券研究中心繪制 CNNCNN 能夠高效率處理圖像任務的關鍵在于其通過卷積層、池化層操作能夠高效率處理圖像任務的關鍵在于其通過卷積層、池化層操作實現了降維,模型需要實現了降維,模型需要訓練的參數量相比于訓練的參數量相比于 D DNNNN 來說大幅降低,對硬件算力的要求也相對降低。來說大幅降低,對硬件算力的要求也相對降低。CNN 的模型結構在DNN 的全連接層之前增加了卷積層和池化層,用于提取圖像特征并降低數據維度。舉例而言,對于一個 88(64 像素)的原始圖片,CNN 模型中設置一個大小為 3

15、3 的濾波器(即卷積核),“覆蓋”在原始圖片相同大小的區域之后,對應位置元素相乘求和;完成一個位置計算后,向其他區域平移直到覆蓋整個原始圖片。上述這一過程即“卷積”操作,其中卷積核的值為模型所需要學習的參數。卷積操作的優勢在于卷積核與原始圖像每一區域進行運算的參數相同,降低了模型所需要學習的參數量。池化(Pooling)操作是為了提取一定區域的主要特征,并進一步減少后續輸入全連接層的參數量。如對卷積后 66 的特征圖,選取 22 大小的窗口進行 Maxpooling 操作(即窗口內取最大值)后,特征圖的長和寬都縮小到原來的 1/2。圖圖5.5.CNN 相比于相比于 DNN 在全連接層之前加入卷

16、積在全連接層之前加入卷積/池化層池化層 資料來源:安信證券研究中心繪制 7 圖圖6.6.CNN 通過卷積和池化操作提取圖像特征并降低數據維度通過卷積和池化操作提取圖像特征并降低數據維度 資料來源:知乎從此明白了卷積神經網絡(CNN),安信證券研究中心 但是但是 C CNNNN 仍然存在一定的缺陷,仍然存在一定的缺陷,多次多次池化會丟失一些的有價值信息,忽略局部與整體之間池化會丟失一些的有價值信息,忽略局部與整體之間的關聯性。的關聯性。例如進行面部識別時,多次池化位置信息有所損失,鼻子、眼睛、嘴特征同時出現,CNN 就可能將其識別為人臉。因此 CNN 存在誤判的概率。圖圖7.7.多次池化可能丟失

17、特征位置信息,多次池化可能丟失特征位置信息,CNN 可能誤判可能誤判 資料來源:安信證券研究中心繪制 1.1.1.3.循環神經網絡 RNN 有效處理有時間序列信息 在自動駕駛場景下,感知還需要時序的信息在自動駕駛場景下,感知還需要時序的信息來完成目標跟蹤以及視野盲區預測等感知任務來完成目標跟蹤以及視野盲區預測等感知任務。循環神經網絡循環神經網絡 RNNRNN 與與 CNNCNN 一樣都是傳統神經網絡的擴展,一樣都是傳統神經網絡的擴展,相比于相比于 CNNCNN 在空間上在空間上進行進行拓展,拓展,RNNRNN 是在時間上是在時間上的的擴展,可以用于描述時間上連續輸出的狀態。擴展,可以用于描述時

18、間上連續輸出的狀態。例如自動駕駛場景中可能會出現前方大卡車造成遮擋,如果要判斷視野盲區里是否有行人就需要結合被卡車遮擋前的信息,由此需要引入循環神經網絡 RNN 對時序信息進行處理。RNN 與 DNN 在結構上相近,區別在于 RNN 在隱藏層引入“循環”,即每一個隱藏層上的每一個記憶體(本質就是感知機)都與上一個時刻隱藏層上的所有記憶連接,這意味著某一時刻網這意味著某一時刻網絡的輸出除了與當前時刻絡的輸出除了與當前時刻的輸入相關,還與之前某一時刻或某幾個時刻的輸出相關。的輸入相關,還與之前某一時刻或某幾個時刻的輸出相關。引入了循環的隱藏層叫做循環核,RNN 借助循環核提取時間特征,從而引入了時

19、序上的相關性實現連續數據的預測。但是RNN 的局限主要在于:1 1)循環)循環核核需要存儲,需要存儲,意味著硬件需要具備更大的緩存。同時記憶體個數越多存儲歷史狀態信息的能力越強、訓練效果越好,但需要訓練的參數量、消耗的資源也越多,二者共同制約 RNN,使其難以學到長時間距離的依賴關系使其難以學到長時間距離的依賴關系。2)R RNNNN 并行能力受并行能力受限限,由于某一時刻網絡的輸出不但與當前時刻的輸入相關,還與上一時刻的輸出結果相關,因此 RNN 無法進行并行計算,使得計算效率非常受限。8 圖圖8.8.RNN 借助循環核提取時間特征,實現連續數據預測借助循環核提取時間特征,實現連續數據預測

20、資料來源:安信證券研究中心繪制 1.1.2.1.1.2.T Transformerransformer 大模型的注意力機制大模型的注意力機制成為成為自動駕駛感知算法的自動駕駛感知算法的利器利器 TransformerTransformer 模型的模型的關鍵關鍵在于計算輸入序列元素之間的關系權重,最早在在于計算輸入序列元素之間的關系權重,最早在 N NLPLP 領域大放異彩,領域大放異彩,2 202020 0 年年起起在在 C CV V 領域開始得到廣泛應用。領域開始得到廣泛應用。2017 年,谷歌在 NIPS 發表論文Attention is all you need提出了 Transform

21、er 網絡結構,其基本思想為假設一個有邏輯的序列 a=(a1,a2,a3,.,ai,.),如文章的文字序列、語音的聲譜序列等,Transformer 模型的關鍵是為每個 token(元素)找到與其他 token 的關系權重。由此可見,Transformer 在處理NLP 這樣的序列任務上具有天然的優勢,并迅速成為 NLP 領域的主流模型。2020 年,VIT(Vision Transformer)網絡把一個圖片按序切成一個個小片(Patch)后再應用Transformer 模型架構,標志著 Transformer 正式進軍 CV 領域,并在目標檢測、分割等任務中均表現出色。圖圖9.9.Tran

22、sformer 的目標是尋找元素間的權重關系的目標是尋找元素間的權重關系 圖圖10.10.Vision Transformer 模型架構模型架構 資料來源:安信證券研究中心繪制 資料來源:An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale,安信證券研究中心 TransformerTransformer 成功的關鍵在于引入注意力(成功的關鍵在于引入注意力(attentionattention)機制。)機制??梢詫ψ⒁饬Γ╝ttention)機制直觀理解為“只關注重要的信息而非全部信息”,比如當我們視線

23、掃過大片文字,注意力會停留在其中的關鍵詞及關鍵詞之間的邏輯關聯上,而對其余信息則印象不深。神經網絡模型中引入注意力記住的好處在于可以解決存儲時間長度有限的問題(只關注過往信息中有用的而非全部),同時又沒有重要信息的丟失。注意力機制可以通過運算得到一個矩陣,包含任一個元素和其他元素之間多角度的關聯度的信息。如圖所示,不同的顏色代表不同的維度,顏色越深代表在這個維度上兩個元素關聯度越高。舉例而言,如果識別一個未知的物體 X(木床),這個矩陣就代表在材料維度物體和木桶關聯度最高,在形狀維度和鐵床 9 關聯度最高,通過神經網絡訓練后可以得到正確的結果。(這里的例子僅為方便理解,attention 機制

24、在實際應用時可以給出更基本的元素之間的相關性信息)。圖圖11.11.注意力機制能夠獲得一個元素和其他元素多角度相關度的矩陣注意力機制能夠獲得一個元素和其他元素多角度相關度的矩陣 資料來源:安信證券研究中心繪制 Transformer 主要由編碼器(Encoder)和解碼器(Decoder)兩部分組成,編碼器負責把輸入數據編碼成一個向量表示,解碼器則根據這個向量生成輸出數據。其中編碼器基于多頭自注意力機制(Multi-Head Self-Attention),解碼器基于多頭交叉注意力機制(Multi-Head Cross-Attention)。在 Transformer 模型中,輸入元素經過三次

25、線性變換,分別得到查詢向量 Q(Query)、鍵向量 K(Key)和值向量 V(Value)。這三個向量均代表了同一個輸入元素,但經過不同的線性變換后,它們的表示和功能都有所不同。其中,查詢向量 Q 用于檢索與當前輸入元素相關的其他元素;鍵向量 K 用于幫助查詢向量找到與之相關的元素;值向量 V 用于表示輸入元素的實際信息。輸出向量可以表示為(,)=(),具體的過程如下:1)計算查詢向量與鍵向量的點積,得到注意力得分,點積結果越大表明相似度越高,注意力得分越高。2)對注意力得分進行縮放和歸一化為概率分布。3)用歸一化后的注意力得分對值向量進行加權求和,得到輸出向量。自注意力機自注意力機制中,制

26、中,Q Q、K K、V V 三個參數來自于同一個輸入序列,用序列中所有元素向量的加權和來代表某三個參數來自于同一個輸入序列,用序列中所有元素向量的加權和來代表某一個元素的向量,一個元素的向量,因此因此自注意力機制可以捕捉輸入數據中的長距離依賴關系,常用于特征自注意力機制可以捕捉輸入數據中的長距離依賴關系,常用于特征提取。所謂“多頭注意力機制”是一種并行計算的注意力方法,它將輸入數據分成多個部提取。所謂“多頭注意力機制”是一種并行計算的注意力方法,它將輸入數據分成多個部分(稱為“頭”),然后分別計算各部分的注意力得分。這樣做的好處是,不同的頭可以關分(稱為“頭”),然后分別計算各部分的注意力得分

27、。這樣做的好處是,不同的頭可以關注輸入數據的不同部分,從而捕捉到更多的特征。交叉注意力機制與自注意力機制的計算注輸入數據的不同部分,從而捕捉到更多的特征。交叉注意力機制與自注意力機制的計算過程類似,核心區別在于交叉注意力機制中過程類似,核心區別在于交叉注意力機制中 Q Q 和和 K/VK/V 的來源不同,因此常被用來做不同序的來源不同,因此常被用來做不同序列之間的轉換。列之間的轉換。圖圖12.12.編編碼器碼器-解碼器架構解碼器架構 資料來源:安信證券研究中心繪制 10 圖圖13.13.transformer 架構架構 資料來源:Attention Is All You Need,安信證券研究

28、中心 T Transformerransformer 憑借優秀的長序列處理能力和更高的并行計算效率,憑借優秀的長序列處理能力和更高的并行計算效率,20212021 年由特斯拉引入自年由特斯拉引入自動駕駛領域。動駕駛領域。TransformerTransformer 與與 CNNCNN 相比最大的優勢在于其泛化性相比最大的優勢在于其泛化性更更強。強。CNN 只能對標注過的物體進行相似度的比對,通過不斷學習完成對該物體識別的任務;而 transformer 可以通過注意力層的結構找到更基本的元素與元素間之間多個維度的相關信息進而找到一種更泛化的相似規律,進而提高自動駕駛的泛化能力。同時,不同于 R

29、NN 存在存儲時間長度有限以及順序依賴的問題,Transformer 模型具有更高的并行計算效率并且可以學習到長時間距離的依賴關系。1.2.1.2.特征級融合逐步取代后融合,特征級融合逐步取代后融合,B BEV+TransformerEV+Transformer 為當前主流方案為當前主流方案 自動駕駛感知模塊通常配備多個傳感器(甚至多種傳感器)達到安全冗余和信息互補的作用,但不同傳感器傳遞的信息存在相互沖突的可能性。舉例而言,如果一個傳感器識別到前方有行人要求汽車立即剎車,而另一傳感器顯示可以繼續安全行駛,在這種情況下如果不對傳感器信息進行融合,汽車就會“感到迷?!?,進而導致意外的發生。因此,

30、在使用多種(個)傳感器采集信息時必須進行信息交互、融合。1.2.1.1.2.1.自動駕駛感知技術從后融合向特征級融合迭代趨勢明確自動駕駛感知技術從后融合向特征級融合迭代趨勢明確 感知可粗略分為獲取數據、提取特征、完成感知任務三個環節感知可粗略分為獲取數據、提取特征、完成感知任務三個環節,按照信息,按照信息融合融合發生的環節發生的環節自動駕駛感知技術自動駕駛感知技術可以分為前融合、可以分為前融合、特征特征融合以及后融合。融合以及后融合。后融合即目標級融合,指單個傳感器分別完成感知任務后再進行融合,可理解為有多少個傳感器即需要幾套感知算法。前融合即數據級融合,指對不同傳感器的原始數據進行空間和時間

31、上的對齊,再從融合數據中提取特征向量進行識別,整套自動駕駛系統僅需要一套感知算法。而特征級融合是指對傳感器采集的原始數據分別進行特征提取,再進行融合,進而實現對應的感知任務。11 圖圖14.14.按照融合環節不同分為前按照融合環節不同分為前-特征特征-后融合后融合 資料來源:安信證券研究中心繪制 后融合方案后融合方案因因易實現、對算力要求易實現、對算力要求低等優勢在自動駕駛發展早期成為主流方案。低等優勢在自動駕駛發展早期成為主流方案。后融合方案由中每個傳感器采集原始數據后獨立進行特征提取和目標檢測再由自動駕駛域控制器對進行預測結果融合。后融合后融合方案具備方案具備三三個顯著個顯著的優勢的優勢,

32、1 1)主機廠在自身感知算法能力有限主機廠在自身感知算法能力有限時可快速量產時可快速量產:后融合算法比較簡單,每種傳感器的識別結果輸入到融合模塊,融合模塊對各傳感器在不同場景下的識別結果,設置不同的置信度,最終根據融合策略進行決策。且不同傳感器的感知算法可以交由供應商完成,例如 Mobileye 所提供的單目一體化解決方案即直接輸出感知識別的結果,由此也可以幫助主機廠在自身感知算法能力有限時實現快速量產。2 2)對對算力算力、帶寬、帶寬要求低:要求低:根據機器之心的數據,傳感器后融合的策略對車端算力的要求僅在 100Tops 以內,同時因為傳感器與域控制器之間只需要傳輸感知結果而非原始數據,對

33、通信帶寬的要求也大大降低。3 3)不同的傳感器都獨立進行目標識別,解耦性好,)不同的傳感器都獨立進行目標識別,解耦性好,且各傳感器可以互為冗余備份。且各傳感器可以互為冗余備份。在行業發展的早期階段自動駕駛等級低,對感知精度要求不高,后融合方案憑借上述優勢成為多家自動駕駛廠商的主流選擇,如特斯拉在 2020 年之前就采用后融合方案。但隨著自動駕駛的發展,由于后融合方案精度較低(后融合過程中低置信度信息會被過濾掉,產生原始數據的丟失,并且可能誤差疊加),難以滿足高級別自動駕駛的要求。同時,后融合是一種基于規則的方法,需要根據先驗知識對傳感器設定置信度,局限性明顯。圖圖15.15.后融合過程后融合過

34、程 資料來源:安信證券研究中心繪制 前融合前融合方案方案感知精度感知精度相比于后融合大幅提升,相比于后融合大幅提升,但但對算法、車端算力要求大幅提升對算法、車端算力要求大幅提升。前融合通過空間、時間對齊直接融合不同模態的原始傳感器數據再從融合后的綜合數據中提取特征向量進行識別。前融合方案優勢明顯,通過對原始數據進行融合因而可以保證數據不會丟失,感知精度較高。同時傳感器無需對原始數據進行處理,原先置于傳感器內部的 SoC芯片可以減配。但問題在于 1 1)需要足夠優秀的融合算法,)需要足夠優秀的融合算法,原始數據數據維度高,特征復雜,12 網絡理解起來比較困難,因此對于算法的設計要求較高。2 2)

35、對車端算力要求大幅提升對車端算力要求大幅提升,需要將原始數據噪聲去除,在時間、空間上將數據對齊而后融合提取特征,這個過程需要消耗大量的算力,根據機器之心數據,車端至少需要 500-1000Tops 才可實現前融合(對比實現后融合只需 100Tops 的算力)。圖圖16.16.前融合過程前融合過程 資料來源:安信證券研究中心繪制 特征級融合特征級融合方案相比于方案相比于后融合數據損失小、后融合數據損失小、相比于相比于前融合的算力消耗低,前融合的算力消耗低,自動駕駛感知技自動駕駛感知技術從后融合向特征級融合迭代趨勢明確,目前主流的方案術從后融合向特征級融合迭代趨勢明確,目前主流的方案是是在在 3/

36、4D3/4D 空間空間中進行特征級融合中進行特征級融合。特征級融合是指在 3/4D 空間中融合跨模態數據。先從每個傳感器提供的原始觀測數據中提取代表性的特征,再把這些特征融合成單一的特征向量進而識別。根據機器之心數據,前融合需要 500-1000Tops 算力,而特征級融合僅需要 300-400Tops 算力。此外 transformer算法的發展大大提升了在 BEV 空間進行特征融合的效果,目前特征級融合成為主流的融合方案。圖圖17.17.特征級融合過程特征級融合過程 資料來源:安信證券研究中心繪制 1.2.2.1.2.2.TransformerTransformer 大幅提升大幅提升 BE

37、VBEV 空間中的特征級融合效果空間中的特征級融合效果 BEVBEV(Birds Eye Birds Eye ViewView)鳥瞰圖也可以稱之為“上帝視角”,是一種用于描述感知世界的坐)鳥瞰圖也可以稱之為“上帝視角”,是一種用于描述感知世界的坐標系,在標系,在 BEVBEV 空間中可以進行自動駕駛感知模塊的前融合、特征級融合或者后融合??臻g中可以進行自動駕駛感知模塊的前融合、特征級融合或者后融合。BEVBEV 鳥鳥瞰圖僅是一種對感知世界的表達方式,因此其也可廣泛應用在純視覺方案、多傳感器融合瞰圖僅是一種對感知世界的表達方式,因此其也可廣泛應用在純視覺方案、多傳感器融合方案以及車路協同方案中。

38、方案以及車路協同方案中。在在 BEVBEV 空間中進行后融合轉換主要為基于規則的方法??臻g中進行后融合轉換主要為基于規則的方法。傳統的 BEV 轉換方法主要基于 IPM(逆透視變換)。攝像頭所采集到的 2D 圖像,因透視關系的存在會呈現出近大遠小的情況,如真實世界中平行的車道線在 2D 透視圖中會表現出不平行。IPM 就是利用相機成像過程中的坐標系轉化關系,對其原理進行抽象和簡化,得到真實世界坐標系和圖像坐標系之間坐標的對應關系,并進行公式化描述,從而消除這種透視效應。但 IPM 方法依賴于嚴苛的假設,如地面是完美水平、相機和地面之間不存在相對運動,因此任何的車輛顛簸或者道路有高度變化都會打破

39、這一假設,使得 BEV 輸出的圖像面臨失真。同時,由于透視投影,在2D 圖像中完成不錯的感知結果投影到 BEV 空間中精度很差,尤其是遠距離的區域。13 圖圖18.18.圖像空間中的感知結果通過后融合投影到圖像空間中的感知結果通過后融合投影到 BEV 空間中出現嚴重的失真空間中出現嚴重的失真 資料來源:特斯拉 AI Day,安信證券研究中心 為了克服以上問題,當前主流的方案是在為了克服以上問題,當前主流的方案是在 BEVBEV 空間中基于空間中基于深度深度學習的方法做特征級融合。學習的方法做特征級融合。具體的流程如下:BEV 感知的基本過程為:1 1)特征提?。海┨卣魈崛。簜鞲衅鞑杉紨祿?/p>

40、2D 透視圖)輸入到共享的骨干網絡(Backbone),分別提取數據特征(feature)。2 2)空間變換)空間變換+特征級特征級融合:融合:在 BEV 空間內,對分別提取到的特征進行融合,包括多個攝像頭數據特征的融合和多種類傳感器的數據融合,比如將像素級的視覺數據特征和激光雷達點云特征進行融合。3 3)融入時序形成融入時序形成 4D4D 空間:空間:時序信息對于自動駕駛感知任務十分重要,通過時序信息可以判斷面前的車是否出于移動狀態并且可以連續預測。4 4)多任務輸出:)多任務輸出:包括靜態語義地圖、動態檢測和運動預測等,輸出下游規控模塊使用。圖圖19.19.BEV 感知框架感知框架 資料來

41、源:安信證券研究中心繪制 在在 BEVBEV 空間中做特征級融合早期的代表性算法為英偉達空間中做特征級融合早期的代表性算法為英偉達 20202020 年提出的年提出的 LSSLSS 算法,是基于深算法,是基于深度分布估計進行度分布估計進行 BEVBEV 空間轉換的開山之作??臻g轉換的開山之作。攝像頭所采集到的 2D 透視圖缺失了深度信息,LSS 算法的基本思想是對 CNN 共享網絡提取的特征圖做深度估計,并且這里的深度估計并不是一個確定的值,而是給出一系列的概率分布,由此生成 3D 的視錐點云。最后再通過相機的內外參轉換到 BEV 空間中。14 圖圖20.20.英偉達英偉達 LSS 算法基本架

42、構算法基本架構 資料來源:Lift,splat,shoot:Encoding images from arbitrary camera rigs byimplicitly unprojecting to 3d,安信證券研究中心 TransformerTransformer 交叉注意力機制對于交叉注意力機制對于 BEVBEV 空間轉換任務適配性較高,目前成為特斯拉、小鵬等空間轉換任務適配性較高,目前成為特斯拉、小鵬等自動駕駛廠商主流的技術方案。自動駕駛廠商主流的技術方案。與基于深度分布估計方法最顯著的區別在于基于交叉注意力機制的方法沒有顯示的深度估計,而是用注意力機制直接進行不同序列(指 2D

43、特征圖和BEV 視圖)之間的轉換。如前文所述,交叉注意力機制中的 Query 和 Key/Value 來源不同,因此天然適配于不同域之間的數據轉換。在 2D 特征圖向 BEV 空間轉換的過程中,首先將BEV 空間分割成 3D 格柵,之后將它們編碼成一組 Query 向量,去 2D 特征圖中查詢對應的點,從而實現空間的轉換。根據 2021 年特斯拉 AI Day,通過 Transformer 交叉注意力機制在BEV 空間內做特征級融合的效果遠好于基于規則的方法在 BEV 空間內后融合。圖圖21.21.特斯拉基于特斯拉基于 Transformer 的的 BEV 空間轉換架構空間轉換架構 資料來源:

44、特斯拉 AI Day,安信證券研究中心 15 圖圖22.22.BEV 轉換過程轉換過程 資料來源:特斯拉 AI Day,安信證券研究中心 圖圖23.23.基于基于交叉注意力機制在交叉注意力機制在 BEV 空間內做特征級融合的效果遠好于基于規則的方法在空間內做特征級融合的效果遠好于基于規則的方法在 BEV 空間內后融合空間內后融合 資料來源:特斯拉 AI Day,安信證券研究中心 2.2.A AI I 大模型的應用對自動駕駛領域所帶來的好處?大模型的應用對自動駕駛領域所帶來的好處?2.1.2.1.城市城市 NGPNGP 落地在即,落地在即,A AI I 大模型的應用大模型的應用驅動自動駕駛算法具

45、備更強的泛化能驅動自動駕駛算法具備更強的泛化能力力 自動駕駛向更高等級邁進,城市自動駕駛向更高等級邁進,城市領航領航輔助駕駛輔助駕駛落地在即落地在即。當前大多數主機廠實現了 L2 級別的自動駕駛,車輛可以在單一功能下實現車輛的橫向和縱向控制,比如 TJA(交通擁堵輔助)、HWA(高速駕駛輔助)、APA(自動泊車輔助)等,根據高工智能汽車數據,2022 年我國 L2 級輔助駕駛(含 L2+)前裝標配交付 585.99 萬輛,同比增長 61.66%,前裝搭載率升至 29.40%。2021-2022 年國內新勢力和自主主機廠旗下新設的新能源品牌陸續落地高速領航輔助駕駛,達到了 L2+級別自動駕駛,能

46、夠在高速(+匝道)場景下由自動駕駛系統獨立完成橫縱向車身控制。目前,主機廠正逐步從高速領航輔助駕駛向城市領航輔助駕駛拓展,2021 年 7 月特斯拉率先在北美推送 FSD BetaV9 測試城市道路完全自動駕駛功能,國內主機廠中小鵬、理想、長城毫末、華為極狐等也于 2022-2023 年明確計劃推出城市場景下的領航功能。16 表表1 1:2 2023023 年多家主機廠預計推出城市領航輔助駕駛年多家主機廠預計推出城市領航輔助駕駛 主機廠主機廠 時間時間 描述描述 小鵬 2021 年 1 月 26 日 正式推送高速 NGP 2022 年 9 月 27 日 廣州首發城市 NGP(有高精度地圖)20

47、23 年 3 月 31 日 G9 和 P7i Max 版車型上城市 NGP 新增開放廣州、深圳、上海三地;無圖城市能夠帶來紅綠燈識別、啟停,以及無車道線的繞行等場景。2023H2 大部分的無圖城市都能夠有接近城市 NGP 的能力 2024 實現全場景(高速+城區+泊車)的領航輔助駕駛 蔚來 2020 年 10 月 推送高速領航輔助駕駛 NOP 2023 年 1 月 推送 NOP+Beta,高速領航輔助駕駛體驗升級 理想 2021 標配高速 NOA 2022 AD Max 2.0 視覺融合 Lidar,AD Pro 2.0 純視覺高速 NOA 2023Q2 城市 NOA(脫高精度)內測 2023

48、 年底 城市 NOA(脫高精度)覆蓋 100 城 問界 M5 智駕版 2023Q2 華為城區 NCA 落地 5 城(有高精度地圖)2023Q3 華為城區 NCA 落地 15 城(無高精度地圖)2023Q4 華為城區 NCA 落地 45 城(無高精度地圖)極狐阿爾法 S 2022 年 9 月 在深圳開通城市 NCA 功能 2023 年 3 月 21 日 在深圳、上海、廣州三城開通城市 NCA 功能 上汽智己 2023 年 4 月 L7 推送 5 個城市高速 NOA,年內推廣至全國 2023 年內 智己城市 NOA 領航輔助以及替代高精地圖的數據驅動道路環境感知模型公測。注:NGP、NOA、NCA

49、、NOP 均指領航輔助駕駛,各主機廠命名有所差異 資料來源:小鵬汽車 2023 技術架構發布會,理想汽車“雙能戰略”純電解決方案發布會,2023 華為智能汽車解決方案發布會等,安信證券研究中心 城市場景具有高頻城市場景具有高頻+剛需特征,剛需特征,城市領航系統的成熟應用可使得駕駛體驗擁有質的提升城市領航系統的成熟應用可使得駕駛體驗擁有質的提升。根據小鵬科技日公開數據,用戶在用車過程中,途徑城市場景的用戶數量達到 100%,途徑時長及里程的滲透率達到 90%和 71%,因此城市場景具備高頻特征。此外城市場景交通復雜程度高,駕駛人注意力需要高度集中確保駕駛安全、同時交通堵塞等降低駕駛效率的情況不可

50、避免,使得城市場景本身是駕駛人的痛點,在城市場景下實現自動駕駛具備剛需特征。圖圖24.24.城市場景具有高頻、剛需特征,落地價值凸顯城市場景具有高頻、剛需特征,落地價值凸顯 資料來源:小鵬科技日路演資料,安信證券研究中心 而而從高速場景拓展到城市場景,意味著車輛所遇到的長尾問題(或者說是從高速場景拓展到城市場景,意味著車輛所遇到的長尾問題(或者說是 C Corner caseorner case)大)大幅提升。幅提升。高速場景在特定路段下較為封閉,交通環境的標準化程度高;且高速駕駛規定對車輛的駕駛行為進行了明確的規范,交通參與者單純不涉及到行人,并且駕駛狀態的可預測性更強,因此高速 NOA 成

51、為率先落地的場景。然而,城市場景下道路及路況復雜(紅綠燈路口)、交通參與者多(行人、低速兩輪車)、場景異質性強(不同城市甚至不同路段路況差異性大),自動駕駛遇到的 Corner case 大幅提升。因此,城市領航輔助駕駛的落地需因此,城市領航輔助駕駛的落地需求對自動駕駛模型的求對自動駕駛模型的泛化能力提出更高的要求,同時考慮到商業化落地的成本約束,我們泛化能力提出更高的要求,同時考慮到商業化落地的成本約束,我們認為,認為,應用應用 A AI I 大模型大模型提高泛化能力提高泛化能力+降低降低/控制車端硬件成本是自動駕駛算法演變的核心脈控制車端硬件成本是自動駕駛算法演變的核心脈絡。絡。17 圖圖

52、25.25.高速高速場景自動駕駛場景自動駕駛 Corner case 較少較少 資料來源:Vehicle 公眾號,安信證券研究中心 圖圖26.26.城市場景自動駕駛城市場景自動駕駛 Corner case 大幅提升大幅提升 資料來源:Vehicle 公眾號,安信證券研究中心 2.2.2.2.從特斯拉感知算法迭代歷程看從特斯拉感知算法迭代歷程看 A AI I 大模型對大模型對城市城市 N NGPGP 的賦能方向的賦能方向 簡單復盤特斯拉算法迭代歷程:簡單復盤特斯拉算法迭代歷程:1)2018 年之前:后融合策略,在每個視角下處理多個task,將單個圖片檢測得到的結果再進行融合。3)2020-202

53、1:多個攝像頭輸入多個 image,分別經過多個主干網絡,抽取每個 image 特征,經過 BEVtransformer 轉換,特征投影到BEV 視角,再完成很多個 task,實現特征級概念的融合。4)2022:從 BEV 升級到占用網絡,達到“偽激光雷達”的效果??偨Y來看,特斯拉從“第一原則性”角度出發,堅持純視覺方案。從特斯拉算法迭代方向來看,追求泛化,通過視覺的方案刻畫真實的物理世界。2020 年 8 月馬斯克發布推特稱特斯拉正在重構自動駕駛底層算法,2021 年 7 月特斯拉正式推送 FSD Beta V9.0,通過重寫感知算法讓特斯拉只要用純視覺就可以實現城市級別的完全自動駕駛;20

54、22 年 11 月特斯拉開始推送 FSD Beta V11 版本,進一步提升占用網絡算法,在近距離障礙物召回和惡劣天氣條件下的精度,Transformer 空間分辨率提高了 4 倍。18 圖圖27.27.特斯拉自動駕駛算法迭代歷程特斯拉自動駕駛算法迭代歷程 資料來源:CSDN,安信證券研究中心 2.2.1.2.2.1.第一階段:第一階段:BEV+transformerBEV+transformer,實現“脫高精度地圖”,實現“脫高精度地圖”高精地圖能夠提供超視距、厘米級相對定位及導航信息,在數據和算法尚未成熟到脫圖之高精地圖能夠提供超視距、厘米級相對定位及導航信息,在數據和算法尚未成熟到脫圖之

55、前,尤其針對國內的復雜路況,其對主機廠實現高階自動駕駛功能具有重要意義前,尤其針對國內的復雜路況,其對主機廠實現高階自動駕駛功能具有重要意義,現階段,現階段國內主機廠實現城市領航輔助駕駛落地的國內主機廠實現城市領航輔助駕駛落地的主要基于主要基于高精度地圖高精度地圖+單車感知的方案單車感知的方案。但高精度地圖方案缺陷較為突出,在自動駕駛感知算法成熟之后,“脫高精度地圖”趨勢明確。高精度地圖的生產流程,首先需要搭載高精度傳感器的數據采集車進行數據采集,之后將采集的點云數據用 SLAM 算法拼接配準后,標注員把所有的地圖中元素標注出來,這一流程與自動駕駛感知過程具有相似之處。在應用過程中最為突出的在

56、應用過程中最為突出的三三個問題為:個問題為:1 1)無法做到實施更無法做到實施更新;新;2 2)法規風險)法規風險;3 3)高成本。)高成本。難以實施更新:難以實施更新:高精地圖數據規模巨大,導致制圖和更新都耗費較長時間。據統計高精地圖中對于單條道路的采集需要 14 億個數據點;僅以靜態地圖層為例,Waymo 單日數據采集量達到 1TB 也僅覆蓋約 8h 車程。圖商在采用專用采集車更新 1 次全國高速公路和城市快速路的高精度地圖的頻率約為 3 個月,通過(出租車)眾包方式更新頻率也僅能提升至月度頻率。然而,道路環境的變化是實時發生的,不能做到實施更新的高精度地圖可靠性大幅下降。表表2 2:高精

57、地圖在城市道路覆蓋度有限高精地圖在城市道路覆蓋度有限 數據層次數據層次 內容內容 更新頻率需求更新頻率需求 永久靜態數據 車道模型(包括車道線、曲率、坡度、橫坡)、道路部件(斑馬線、收費站、路面標志)等 月級 半永久靜態數據 交通管制情況、道路施工情況、天氣預報(一段較長時間內)等信息 天級 半動態數據 道路擁堵情況、是否有交通事故、詳細的天氣情況(較短時間或局部地區)等動態交通信息 分鐘級 動態數據 車輛運動情況、行人數據、交通信號燈數據等 秒級 資料來源:九章智駕,安信證券研究中心 法規風險:法規風險:高精地圖提供精確至車道級的道路敏感信息,高精度和覆蓋廣泛的道路信息涉及國家信息安全問題,

58、因此政府對高精地圖的制圖資格要求嚴格。2022 年 9 月自然資源部發布關于促進智能網聯汽車發展維護測繪地理信息安全的通知,收緊高精地圖測繪資質,重審換證后 2021 年共 31 家企業擁有資質,2022 年僅剩 19 家。19 高成本:高成本:根據汽車之心,高精度地圖廠商的盈利模式主要采用 license+服務費模式,主機廠在與圖商確認開發高精地圖時支付一筆開發費用(約幾千萬),后續上車時收取單車license 授權費約 1000 元,未來每年每車收取 100-500 元的服務費。這一模式下,對自動駕駛主機廠而言,無法實現規模效應。表表3 3:傳統地圖與高精地圖盈利模式的區別傳統地圖與高精地

59、圖盈利模式的區別 圖商圖商 盈利模式盈利模式 傳統圖商 離線地圖 license 費用 高精地圖圖商 開發費+license 費+服務費 資料來源:汽車之心,安信證券研究中心 自動駕駛自動駕駛感知算法向感知算法向 B BEV+transformerEV+transformer 架構升級,助力城市領航輔助駕駛脫高精度地圖架構升級,助力城市領航輔助駕駛脫高精度地圖。自動駕駛車輛通過相機拍到的是透視視圖,即 3D 世界在 2D 世界的投影,并且處于不同安裝位置的相機提供的是不同視角下的投影,然而所有自動駕駛的決策和路徑規劃都是在車輛所在的 3D 世界下進行的,這樣的維度不匹配就使得基于感知結果直接進

60、行自動駕駛變得異常困難。以人類駕駛舉例而言,新手學倒車時難以利用后視鏡觀察到的場景與車子與周圍環境的 3D 空間聯系,即缺乏從倒視鏡圖像平面到自車坐標系空間轉換的空間理解,因此新手靠倒車鏡很容易發生誤操作造成剮蹭。2021 年特斯拉 AI Day 中提出 BEV 鳥瞰圖感知技術就是為了解決這一問題。BEV 鳥瞰圖可以理解為在車輛正上方 10-20 米的位置有一個直升機俯視車輛及周圍環境的視角,從輸入的不同視角的圖片到 BEV 鳥瞰圖本質上就是一個坐標系的變化。圖圖28.28.BEV 鳥瞰圖視角鳥瞰圖視角 資料來源:Vehicle 公眾號,安信證券研究中心 同時特斯拉同時特斯拉 BEVBEV 感

61、知模型為特征級融合,極大的提高了模型在極端天氣工況下的應對能力。感知模型為特征級融合,極大的提高了模型在極端天氣工況下的應對能力。在后融合中,由攝像頭中的視頻芯片判斷采集數據是否合格并進行處理,再傳到自動駕駛域控制器中,這里需要注意的時,攝像頭中芯片判斷采集數據是否合格的標準本質上是人的標準。在后融合模型下,如果遇到極限雨雪天極限天氣工況,攝像頭采集到的數據/視頻流清晰度大幅下降,很難達到攝像頭判斷合格的標準,因此傳遞給后端做規劃控制的結果大幅下降。與后融合模型不同,從不同視角的攝像頭采集到的圖片轉換到 BEV 視角的過程中是特征級的融合,比如在極端天氣工況下有一些光子信息依然反應了前方障礙物

62、的情況可以用于后續的規劃控制,在特征級融合的框架下感知模型對數據的利用率明顯提升。B BEVEV 鳥瞰圖相當于自動駕駛車輛實施生成“活地圖”,因而可以實現去高精度地圖化。鳥瞰圖相當于自動駕駛車輛實施生成“活地圖”,因而可以實現去高精度地圖化。相比于導航地圖,高精度地圖能夠提供更多的道路拓撲信息,比如紅綠燈、車道線、斑馬線、坡度、曲率、車道數的精確信息,而導航地圖會具有 10-20 米的誤差。BEV 模型通過將不同視角的攝像頭采集到的圖片統一轉換到上帝視角,相當于車輛實施生成活地圖,補足了自動駕駛后續決策所需要的道路拓撲信息,因而可以實現去高精度地圖化。20 圖圖29.29.特斯拉特斯拉 BEV

63、 語義地圖語義地圖 圖圖30.30.理想理想 BEV 語義地圖語義地圖 資料來源:特斯拉 AI Day,安信證券研究中心 資料來源:理想雙能戰略發布會,安信證券研究中心 一方面高精度地圖方案在城市場景下缺陷明顯,同時特斯拉一方面高精度地圖方案在城市場景下缺陷明顯,同時特斯拉 B BEV+TransformerEV+Transformer 方案為行業方案為行業“脫圖”提供了技術上的可行性,我們認為“脫圖”提供了技術上的可行性,我們認為“輕地圖,重感知”將成為行業發展的主流方“輕地圖,重感知”將成為行業發展的主流方向向,小鵬等國內自動駕駛廠商均提出“脫圖”時間表,小鵬等國內自動駕駛廠商均提出“脫圖

64、”時間表。在小鵬 1024 科技日中,負責人吳新宙多次強調未來 G9 搭載的 XNGP 自動駕駛系統將無需依賴高精地圖,實現城市、高速和地下停車場的全場景應用,其主要的思路是在原有硬件基礎上,推出新的視覺感知架構 XNet。其利用多相機多幀和雷達傳感器數據的融合算法,直接輸出 BEV 視角下交通參與者的靜態和動態信息(狀態、速度、行為預測等),具備實時生成高精地圖的能力。與特斯拉不同,小鵬仍保留了激光雷達傳感器提供感知冗余,預計將引領主機廠實現脫圖技術上的突破,拓寬全場景領航駕駛的應用城市。圖圖31.31.XNet 感知架構重感知、輕地圖感知架構重感知、輕地圖 資料來源:小鵬科技日資料,安信證

65、券研究中心 21 表表4 4:主要自動駕駛廠商宣布脫圖時間主要自動駕駛廠商宣布脫圖時間 自動駕駛廠商 宣布“脫圖時間”新架構名稱 小鵬 2022/10/24 AI Day XNGP 毫末 2023/01/05 HAOMO AI DAY 毫末城市 NOH 理想 2023/01/28 李想在“CEO 致全體員工的一封信”中表示 AD Max 3.0 華為 2023/03/23 華為 2023 春季旗艦新品發布會 ADS 2.0 元戎啟行 2023/3/22 DeepRoute-Driver 3.0 小馬智行 2023/1/11 PonyClassic PonyPro PonyUltra Momen

66、ta 2023/01/12 智己汽車 IM TECH DAY IM AD NOA 哪吒 2022/2/28 TA PILOT 4.0 資料來源:小鵬科技日,毫末 AI Day,電動車百人大會等,安信證券研究中心 2.2.2.2.2.2.第二階段:升級到占用網絡,第二階段:升級到占用網絡,實現“脫實現“脫激光雷達”激光雷達”從從 BEVBEV 升級到占用網絡,進一步提升泛化能力。升級到占用網絡,進一步提升泛化能力。特斯拉在 2022 年 AI Day 中展現了Occupancy Network 感知技術?;镜乃枷胧菍⑷S空間劃分成體素 voxel(可以理解為微小立方體),再去預測每個 voxe

67、l 是被占用還是空閑,通過 0/1 賦值對 voxel 進行二分類:有物體的 voxel 賦值為 1,表示 voxel 被物體占據;沒有物體的 voxel 被賦值為 0。實際中的賦值可以是概率值,表示 voxel 存在物體的概率。圖圖32.32.BEV 與占用網絡效果對比與占用網絡效果對比 資料來源:特斯拉 AI Day,安信證券研究中心 占用網絡感知技術本質上是為了解決占用網絡感知技術本質上是為了解決更多更多的長尾問題。的長尾問題。純視覺方案被質疑的一大問題在于對于沒有在訓練集中出現過的物體,視覺系統則無法識別,比如側翻的白色大卡車,垃圾桶出現的路中,傳統視覺算法無法檢測到。占用網絡模型的基

68、本思想是“不考慮這個物體到底是什么,只考慮體素是否被占用”,則從根本上避免了這一問題,大幅提升了模型的泛化能力。從特斯拉 AI Day 演示效果來看,特斯拉通過體積鳥瞰圖、占用檢測和體素分類使純視覺方案已經達到“偽激光雷達”效果。22 圖圖33.33.BEV 與占用網絡效果對比與占用網絡效果對比 資料來源:特斯拉 AI Day,安信證券研究中心 增配增配 4D4D 毫米波雷達,進一步保證安全性,徹底取代激光雷達。毫米波雷達,進一步保證安全性,徹底取代激光雷達。特斯拉 HW4.0 預留 4D 毫米波雷達接口,或將重啟毫米波雷達,彌補純視覺算法不足。對于純視覺算法而言實際是缺乏高度信息,3D 信息

69、依靠“近大遠小”來估算,如果說前方道路上有一張畫著立體卡車的畫,視覺算法難以判斷這是一張畫還是真的有一輛車,而 4D 毫米波雷達能很好的解決這一問題。從成本來看,4D 毫米波雷達價格低于高線束激光雷達。根據焉知汽車數據,MEMS 激光雷達價格大概在 3000-9000 元不等,同時根據高工智能汽車數據,4D 毫米波雷達售價為1000-2000 元。2.2.3.2.2.3.第第三三階段:階段:從感知到決策控制端到端的自動駕駛模型有望成為未來發展方向從感知到決策控制端到端的自動駕駛模型有望成為未來發展方向 在當前自動駕駛模型架構中將駕駛目標劃分為感知、規劃、控制三個大的模塊,而端到端在當前自動駕駛

70、模型架構中將駕駛目標劃分為感知、規劃、控制三個大的模塊,而端到端則打破模塊之間的劃分,直接輸出最終的結果。則打破模塊之間的劃分,直接輸出最終的結果?,F有的模型思路是感知模塊輸出 BEV 鳥瞰圖(或者 Occupancy)的結果,規劃和控制模塊再依據 BEV 鳥瞰圖結果進行預測和執行。而而在端到端(在端到端(e endnd-toto-endend)模型中,輸入數據是攝像頭采集的到的視頻流)模型中,輸入數據是攝像頭采集的到的視頻流 r rawaw-datadata,輸出數,輸出數據直接是如方向盤轉角多少度的控制決策。據直接是如方向盤轉角多少度的控制決策。端到端的思路更類似于人的駕駛過程,人的駕駛決

71、策往往基于經驗,司機駕駛車輛時并不會刻意對基于視覺/眼睛提供的信息進行分析,即不會去判斷我看到了什么,也不會對看到的物體和狀態做分析,駕駛員固有的“經驗”所活躍的腦質皮層在一種“黑盒”的狀態下,完成駕駛決策,并協調耳眼手腳,共同完成駕駛任務。AIAI 技術將“場景技術將“場景-駕駛行為”的映射轉變為“場景駕駛行為”的映射轉變為“場景-車輛控制”的“端到端”式映射車輛控制”的“端到端”式映射。深度強化學習(DRL)結合了深度學習算法的“感知能力”和強化學習算法的“決策能力”,為復雜駕駛場景的感知決策問題提供解決方案。其中,深度學習負責復雜駕駛場景的感知和特征提取如同人類的眼睛;強化學習部分通過馬

72、爾可夫決策過程完成推理、判斷和決策如同人腦。DRL 的原理框架是一種是端到端感知和決策控制系統。23 圖圖34.34.深度強化學習典型框架深度強化學習典型框架 資料來源:安信證券研究中心,CSDN 目前部分自動駕駛參與者對于特定的功能已可以實現端到端。目前部分自動駕駛參與者對于特定的功能已可以實現端到端。如 2016 年英偉達發表的論文End to End Learning for Self-Driving Cars中介紹了實現車道保持功能的端到端模型。CNN 深度神經網絡在對于視覺信息處理之后(通過卷積層),會通過全連接層給出一個基于以前學習經驗得出的方向盤角度(Steering comma

73、nd),而此時此刻真實的人類操作也將被引入與 CNN 的輸出進行對比。對比的結果/偏差被送回 CNN 網絡去矯正那個黑盒狀態下的全連接層參數。這里需要特別注意的是,在整個端到端模型中,不存在單獨的“圖像識別檢這里需要特別注意的是,在整個端到端模型中,不存在單獨的“圖像識別檢測”任務。測”任務。圖圖35.35.車道保持功能的端到端訓練框架車道保持功能的端到端訓練框架 資料來源:End to End Learning for Self-Driving Cars,安信證券研究中心 端到端理論上可以更大程度的提高模型的泛化能力,有望成為自動駕駛模型進一步發展的端到端理論上可以更大程度的提高模型的泛化能

74、力,有望成為自動駕駛模型進一步發展的趨勢。趨勢。我們對比當前 Occupancy 的輸出結果和人駕駛時做判斷的依據,可以發現 Occupancy依然具有信息的損失。舉例而言,人在駕駛車輛時可以參考行人的姿勢等來輔助決策,然而在現有感知模型輸出 Occupancy 結果則丟失了這一信息。因此,相比于現有的感知、決策、歸控區分模塊的自動駕駛模型結果,端到端模型做出決策的依據信息量更大,模型自身的自由度也更大,因而具備更強大的泛化能力。3.3.A AI I 大模型大模型應用于自動駕駛中應用于自動駕駛中的前的前置條件置條件?3.1.3.1.條件一:具備相當數量的里程數據,因而自動標注條件一:具備相當數

75、量的里程數據,因而自動標注+仿真平臺環節將尤為重仿真平臺環節將尤為重要要 T Transformerransformer 大模型量變引起質變需要大模型量變引起質變需要 1 1 億公里的里程億公里的里程數據數據。相比于 CNN 小模型來說,Transformer 需要更大量的數據來訓練模型。根據毫末智行 CEO 顧濰顥在毫末 AI DAY 上表示,訓練出一個能輸出高精度和準確度的自動駕駛大模型,自動駕駛測試里程數據需至少達到 1 億公里。同時,訓練同時,訓練 T Transformerransformer 大模型相比于大模型相比于 C CNNNN 小模型來說所要求的數據顆粒小模型來說所要求的數據

76、顆粒度不同(如傳感器度不同(如傳感器配置、精度不同),因此在小模型時代所積累的數據配置、精度不同),因此在小模型時代所積累的數據存在部分存在部分無法用于大無法用于大 24 模型的訓練。模型的訓練。對于自動駕駛廠商而言,所積累的數據量、對數據的處理極大的影響自動駕對于自動駕駛廠商而言,所積累的數據量、對數據的處理極大的影響自動駕駛模型的迭代速度。駛模型的迭代速度。自動駕駛訓練所需要的自動駕駛訓練所需要的真實真實數據來源主要包括采集車數據數據來源主要包括采集車數據和和眾包數據。眾包數據。自動駕駛廠商具有專業的測試車隊,搭載高性能的傳感器用于采集真實場景的數據,這里需要注意的是,即便對于特斯拉這樣純

77、視覺路線的廠商,采集車通常也搭載有激光雷達,用于測試中的真值校驗。除此之外,對于有量產車的主機廠而言,可以通過“眾包采集”的方式迅速收集數據。如特斯拉首創的“影子模式”,在有人駕駛狀態下,系統包括傳感器仍然運行但并不參與車輛控制,只是對決策算法進行驗證系統的算法在“影子模式”下做持續模擬決策,并且把決策與駕駛員的行為進行對比,一旦兩者不一致,該場景便被判定為“極端工況”,進而觸發數據回傳。圖圖36.36.特斯拉數據引擎特斯拉數據引擎 資料來源:特斯拉 AI Day,安信證券研究中心 其中,其中,傳感器采集得到的傳感器采集得到的 r rawaw-datadata 需進行標注后才可用于算法模型訓練

78、,自動標注工具可需進行標注后才可用于算法模型訓練,自動標注工具可大幅提升數據處理速度。大幅提升數據處理速度。2018 年至今,特斯拉數據標注經歷了 4 個發展階段:1)第 1 階段(2018 年之前):只有純人工的 2 維的圖像標注,效率較低;2)第 2 階段(2019):人工進行3D 固定框的圖像標注;3)第 3 階段(2020):采用 BEV 空間進行標注;4)第 4 階段(2021):首先對場景進行重建后在 4D 空間中進行標注,精度、效率都得到大幅提升。特斯拉自動標注系統可以取代 500 萬小時的人工作業量,人工僅需要檢查補漏。圖圖37.37.特斯拉自動標注系統迭代歷程特斯拉自動標注系

79、統迭代歷程 資料來源:特斯拉 AI Day,安信證券研究中心 25 國內廠商中小鵬、毫末智行等亦相繼推出自動標注工具國內廠商中小鵬、毫末智行等亦相繼推出自動標注工具,在降低人工成本的同時,在降低人工成本的同時,效率得效率得到顯著提升。到顯著提升。根據小鵬科技日資料,小鵬推出的全自動標注系統將效率提升近 45,000 倍,以前 2,000 人年的標注量,現在 16.7 天可以完成。毫末智行在 AI Day 中表示毫末基于視覺自監督大模型,實現 4D Clip 的 100%自動標注,原先依靠的人工標注成本則降低 98%。圖圖38.38.毫末視頻自監督大模型毫末視頻自監督大模型 資料來源:毫末 AI

80、 Day,安信證券研究中心 除了真實場景數據外,仿真除了真實場景數據外,仿真場景場景是是彌補訓練大模型數據不足問題的重要解決方式彌補訓練大模型數據不足問題的重要解決方式。仿真場景通常由虛擬引擎構建,通過把構建的場景導出為虛擬標注數據集,并且在數據集中加入傳感器噪聲及增加雨雪等惡劣天氣干擾因素后,可以用于感知訓練數據增強,極大的豐富了訓練數。相比于采集車數據和眾包數據,仿真測試數據具有低成本、無需標注、可以構建邊緣場景的優勢:1)低成本:低成本:仿真場景無需像真實場景的數據采集一樣配套相應車隊、傳感器以及人工,因此數據獲取成本大幅下降。根據元戎啟行官方公眾號,仿真測試成本僅為真實路測成本的 1%

81、,且用 1 天時間就可實現真實路測 1 個月的里程積累。2)無需標注:無需標注:真實場景數據采集后需要被標注后才能用于人工智能訓練,然而數據標注的過程耗時耗力、且無法排除隱私違規及人工偏差;而仿真數據是由構建好的仿真場景直接生成,省去標注過程。3)可構建邊緣場景:可構建邊緣場景:由真實世界采集而來的數據只能反映出已經發生的情況,可是偶然因素、極端條件或邊緣情況采集難度大,具有偶然性,無法被大量采集到并有效地用于機器學習。而仿真場景可以通過人為添加干擾元素構建邊緣場景。目前仿真場景主要由游戲引擎生成,基于基礎的現實世界數據保證仿真場景與真實場景之目前仿真場景主要由游戲引擎生成,基于基礎的現實世界

82、數據保證仿真場景與真實場景之間的相似度,并依靠交通要素間的重新組合提高泛化能力。間的相似度,并依靠交通要素間的重新組合提高泛化能力。以特斯拉 Simulation World Creator 為例,1)由經自動標注的真實場景數據中提取隔離帶邊界、車道線、道路連接信息等來生成路面網格并進行車道線等渲染;2)植物通過豐富的素材庫在路間和路旁隨機生成植物房屋等來模擬真實世界中這些物體引起的遮擋效應;3)由導航地圖提供信號燈、路牌等其他道路元素;4)加入車輛和行人等動態元素。在這一過程中,通過道路街景隨機生成以及車道鏈接關系的隨機生成提高了模型的泛化能力。26 圖圖39.39.仿真場景中對同一路口生成

83、不同街景進行場景泛化仿真場景中對同一路口生成不同街景進行場景泛化 圖圖40.40.對統一路口生成不同車道關系進行場景泛化對統一路口生成不同車道關系進行場景泛化 資料來源:特斯拉 AI Day,安信證券研究中心 資料來源:特斯拉 AI Day,安信證券研究中心 英偉達自動駕駛仿真平臺英偉達自動駕駛仿真平臺 DRIVE SimDRIVE Sim 通過通過 ReplicatorReplicator 合成數據工具來縮小仿真數據與真實合成數據工具來縮小仿真數據與真實數據之間差異并提高場景泛化能力。數據之間差異并提高場景泛化能力。英偉達 DRIVE Sim 中的 DRIVE Replicator 提供了一

84、個生成各種合成數據集,并具備真值標簽的平臺,其主要特點有以下兩點:1)DRIVE Sim 對傳感器輸出數據的模擬更貼近真實情況,通過 RTX 光線追蹤技術可以模擬傳感器在真實物理環境下多次反射、多路徑效應、滾動快門和鏡頭失真等問題;2)域隨機化,常規的仿真平臺隨機發生器僅對仿真環境中的對象、行為進行隨機,而 DRIVE Sim 還具有 3D 場景外觀及光照情況進行隨機化的能力,如可以對路面潮濕程度、太陽方位角及高度角等方面進行更改來增強場景的泛化能力。生成式生成式 AIAI 有望推動仿真場景大幅提升泛化能力,有望推動仿真場景大幅提升泛化能力,幫助主機廠提升仿真場景數據的應用比例,幫助主機廠提升

85、仿真場景數據的應用比例,從而從而提高自動駕駛模型的迭代速度、縮短開發周期。提高自動駕駛模型的迭代速度、縮短開發周期。當前仿真場景對實際路測中所遇到的邊緣案例主要通過人工進行泛化,如量產車在影子模式下遇到某一個 corner case 并進行數據回傳后,在虛擬引擎中進行場景重建,再通過人為添加要素,如增添雨霧環境、增加交通參與人數等方式對原始場景進行梯度泛化。但對場景的泛化能力依賴于工程師對于場景的理解,且存在經由手動添加元素后的場景與真實場景的擬合度不高的問題。生成式生成式 AIAI有望在針對真實場景中的有望在針對真實場景中的 corner casecorner case 進行場景泛化的過程中

86、取代人工,可以迅速泛化出進行場景泛化的過程中取代人工,可以迅速泛化出大量的、與真實世界高擬合度的虛擬場景,進而提高自動駕駛模型的迭代速度。大量的、與真實世界高擬合度的虛擬場景,進而提高自動駕駛模型的迭代速度。3.2.3.2.條件二:具備相當算條件二:具備相當算力的云端訓練平臺,因而力的云端訓練平臺,因而超算中心超算中心將成為主機廠必要將成為主機廠必要基礎設施基礎設施 自動駕駛自動駕駛 TransformerTransformer 大模型應用對算力的需求來自于兩個方面,分別是云端算力和車端大模型應用對算力的需求來自于兩個方面,分別是云端算力和車端算力。算力。云端算力需求體現在大模型的預訓練環節,

87、可以理解為尋找模型參數值的過程,同時仿真測試中的場景渲染和搭建也對算力提出較高要求,上述過程均要求海量的算力需求并且通常是集中訓練。車端算力用于量產車上自動駕駛模型推理的過程,可以理解為將訓練好的自動駕駛模型部署在車端,輸入自動駕駛汽車實時采集的圖像輸入到訓練好的模型中,依據模型參數算出結果的過程。毫末 CEO 顧濰顥在毫末 AI Day 中表示,基于Attention 的大模型會將大量的“關注”放在弱關聯(與所求結果關聯度不高的參數)運算上,導致 Transformer 所需算力是 CNN 所需算力的 100 倍。超算中心是自動駕駛整車廠重要的基礎設施。超算中心是自動駕駛整車廠重要的基礎設施

88、。算力資源是直接影響開發速度的硬性因素,算力集群底層架構的優化能夠以月為單位縮短系統的開發周期,直接決定了品牌是否能夠在新興領域占領高地。特斯拉 AI 計算中心 Dojo 總計使用了 1.4 萬個英偉達的 GPU 來訓練AI 模型,今年 AI Day 上表示,其需要使用 14 億幀畫面才能訓練一個神經網絡,對應的是10 萬個 GPU 工時,使用 Dojo 組成的 AI 計算集群,可提升 30%的網絡訓練速度。相比于租用公有云來說,自建超算中心的整車廠更具備優勢:1)成本視角:隨著模型復雜度的提升,租用公有云邊際成本上升;2)技術角度,云服務商提供的設備內部所使用的 CPU、GPU/AI加速器、

89、內存的型號與規格都相對固定,很難與車企和自動駕駛公司的算法形成最佳匹配。另一方面,云服務廠商對自動駕駛算法的了解程度不高,其使用的管理軟件在調度 AI 計算設備集群時難免會出現損耗和效率不高的問題。這導致在理論算力一定的情況下,其訓練 27 AI 模型需要更多的時間。3)數據安全視角,數據作為自動駕駛廠商的核心資產之一,自建超算中心具有天然的數據閉環,數據安全性更高。圖圖41.41.特斯拉超算中心特斯拉超算中心 資料來源:特斯拉 AI Day,安信證券研究中心 超算中心初始投入高,小鵬自動駕駛基礎設施建設國內領先。超算中心初始投入高,小鵬自動駕駛基礎設施建設國內領先。根據 IDC 數據,主機廠

90、及一級供應商對搭建人工智能計算中心的預算普遍超過 1 億人民幣,超過 2 億人民幣投入的主機廠占比超過 20%;從超算中心的部署周期來看,通常需要 3 個月左右的時間。小鵬是國內最先布局超算中心的整車廠。2022 年 8 月小鵬汽車成立自動駕駛 AI 智算中心“扶搖”,由小鵬和阿里聯合出資打造。據小鵬汽車 CEO 何小鵬介紹,該中心具備 60 億億次浮點運算能力(60000TFLOPs),可將自動駕駛算法的模型訓練時間提速 170 倍,并且未來還具備10100 倍的算力提升空間。表表5 5:自動駕駛廠商超算中心建設情況自動駕駛廠商超算中心建設情況 公司名稱公司名稱 超算中心超算中心 發布時間發

91、布時間 算力算力 應用領域應用領域 說明說明 特斯拉 Dojo 超算中心 2021.08 180 億億次/秒浮點運算 人工智能學習,訓練自動駕駛視覺技術等 小鵬 扶搖 2022.08 60 億億次/秒浮點運算 專用于自動駕駛模型訓練 可將自動駕駛算法使用的神經網絡模型訓練時間提速170 倍,基于阿里云智能計算平臺。擁有 419 萬臺服務器。蔚來-2022.11騰訊與蔚來達成合作-自動駕駛云,智能駕駛地圖,數字生態社區 與騰訊合作開發 吉利汽車 星睿智算中心 2023.01 81 億億次/秒浮點運算 智能網聯、智能駕駛、新能源安全、試制實驗等業務領域 能提升吉利整體 20%研發效率,預計到 20

92、25 年算力將擴充到 120 億億次/秒 毫末智行 雪湖綠洲(MANA OASIS)2023.01 67 億億次/秒浮點運算 自動駕駛領域大模型訓練 毫末智行和火山引擎聯合打造,自動駕駛模型訓練成本降低 62%,訓練速度提升110%。每臺服務器配置了 8個 GPU 卡,一期已部署了超過 2000 個 GPU 智己汽車 云上數據超級工廠 2022.06-攜手阿里云共同打造 百度 昆侖芯智算中心 2022.09 20 億億次/秒浮點運算 為自動駕駛全鏈路開發提供支持服務 江蘇移動鹽城分公司聯合百度建設 陽泉智算中心 2022.12 400 億億次/秒浮點運算 大搜索,人工智能,智能駕駛等 商湯 A

93、IDC 2022.01 491 億億次/秒浮自動駕駛:超大模型自動標注 28 點運算 資料來源:佐思汽研,高工智能汽車,特斯拉 AI Day,小鵬科技日,安信證券研究中心 圖圖42.42.搭載超算中心投資金額搭載超算中心投資金額 圖圖43.43.搭載超算中心時間周期搭載超算中心時間周期 資料來源:IDC,安信證券研究中心 資料來源:IDC,安信證券研究中心 4.4.關注標的關注標的 4.1.4.1.德賽西威德賽西威 德賽西威是國內汽車智能化領域的頭部德賽西威是國內汽車智能化領域的頭部 Tier1Tier1,深度綁定英偉達這一高算力,深度綁定英偉達這一高算力芯片供應商資源,芯片供應商資源,隨著高

94、階自動駕駛落地對主芯片算力需求的提升將進一步夯實其在自動駕駛域控制器領域隨著高階自動駕駛落地對主芯片算力需求的提升將進一步夯實其在自動駕駛域控制器領域的核心地位。的核心地位。公司 2016 年開始前瞻性布局自動駕駛領域業務,2022 年實現 25.7 億元營收,同比增長達 83.07%,營收占比 17.22%。目前公司已量產的自動駕駛域控制器包括 IPU01 至IPU04。其中,IPU01 和 IPU02 主打高性價比方案,主要搭載于中低端車型,實現 L1 和 L2級別的駕駛輔助功能。根據公司官方公眾號,公司基于英偉達 Xavier/Orin 開發的 IPU03和 IPU04 域控制器主打高算

95、力、高性能,能夠滿足 L2+的高階自動駕駛需求,并且已經分別獲得小鵬、理想等頭部主機廠的量產支持,未來隨著 L2+智能車放量自動駕駛域控制器有望為公司持續貢獻業績增量。4.2.4.2.經緯恒潤經緯恒潤 經緯恒潤是國內唯一覆蓋經緯恒潤是國內唯一覆蓋 L4L4 以下全域自動駕駛場景的智能駕駛龍頭。公司智能駕駛產品覆以下全域自動駕駛場景的智能駕駛龍頭。公司智能駕駛產品覆蓋蓋 L4L4 級及以下自動駕駛場景,覆蓋智能泊車、智能行車、安全預警三大領域。級及以下自動駕駛場景,覆蓋智能泊車、智能行車、安全預警三大領域。其中,公司ADAS 系列產品前四代基本覆蓋 L2 及以下所有自動駕駛場景(自適應巡航、交通

96、擁堵輔助、自動緊急制動等),ADCU 域控制器開始覆蓋部分 L2+/L3 級自動駕駛場景(高速自動駕駛、交通擁堵自動駕駛等),HPC 則可涵蓋 L4 級自動駕駛場景(自主代客泊車等),目前僅應用于港口、園區等封閉式場景。除此之外,公司具備提供自動駕駛仿真測試服務,根據公司招股說明書,公司開發了深度覆蓋測試需求的場景庫,包括法規標準場景、功能覆蓋場景、經驗測試場景、事故和測試問題的極端測試場景等各類場景超過 3 萬條,可以有效滿足智能駕駛測試對不同路況場景的需要。0%5%10%15%20%25%30%35%40%車企/主機廠和車企傳統一級供應商互聯網大廠和芯片廠商AI科技公司自動駕駛獨角獸0%1

97、0%20%30%40%50%60%3周以內4-6周7-12周13-18周19-24周 超過14周車企/主機廠和車企傳統一級供應商互聯網大廠和芯片廠商AI科技公司自動駕駛獨角獸 29 圖圖44.44.經緯恒潤自動駕駛域控制器產品經緯恒潤自動駕駛域控制器產品 資料來源:經緯恒潤招股說明書,安信證券研究中心 4.3.4.3.寒武紀寒武紀 寒武紀是國內寒武紀是國內 AIAI 芯片龍頭,芯片龍頭,20212021 年成立子公司行歌科技正式進軍車載芯片領域。隨著自動年成立子公司行歌科技正式進軍車載芯片領域。隨著自動駕駛從小模型向大模型迭代,對車端推理和云端訓練算力需求均大幅提升,公司將充分受駕駛從小模型向

98、大模型迭代,對車端推理和云端訓練算力需求均大幅提升,公司將充分受益于這一行業趨勢。益于這一行業趨勢。根據寒武紀董事長陳天石博士在 2022 世界人工智能大會上的演講,寒武紀行歌產品布局將覆蓋 L2+L4 全系列芯片組合,覆蓋不同檔位算力需求的計算平臺。其中,SD5223 是面向 L2+自動駕駛市場的產品,最大算力超過 16 TOPS,單顆 SOC 可以實現行泊一體的功能,適配 8M IFC/5V5R/10V5R 等多產品形態。SD5226 針對 L4 市場、支持車端訓練產品,采用 7nm 制程,AI 算力超過 400 TOPS,CPU 最大算力超過 300K+DMIPs。同時,行歌科技的自動駕駛芯片可以與寒武紀的云端訓練產品形成協同。2022 年公司云端產品線發展迅速,思元 290、思元 370 等產品在包括阿里云在內的多家頭部企業的成功實現規?;N售,并且,公司新一代云端訓練芯片思元 590 正快速迭代,浮點運算能力較上一代 290 產品有較大提升。寒武紀高性能 AI 訓練芯片負責處理車端收集的海量數據并進行復雜模型訓練,再通過 OTA 推送到車端,通過車云協同,能夠將車端的數據快速回傳,實現 AI 模型的快速迭代升級。

友情提示

1、下載報告失敗解決辦法
2、PDF文件下載后,可能會被瀏覽器默認打開,此種情況可以點擊瀏覽器菜單,保存網頁到桌面,就可以正常下載了。
3、本站不支持迅雷下載,請使用電腦自帶的IE瀏覽器,或者360瀏覽器、谷歌瀏覽器下載即可。
4、本站報告下載后的文檔和圖紙-無水印,預覽文檔經過壓縮,下載后原文更清晰。

本文(2023年AI大模型在自動駕駛中的應用分析報告.pdf)為本站 (2200) 主動上傳,三個皮匠報告文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對上載內容本身不做任何修改或編輯。 若此文所含內容侵犯了您的版權或隱私,請立即通知三個皮匠報告文庫(點擊聯系客服),我們立即給予刪除!

溫馨提示:如果因為網速或其他原因下載失敗請重新下載,重復下載不扣分。
客服
商務合作
小程序
服務號
折疊
午夜网日韩中文字幕,日韩Av中文字幕久久,亚洲中文字幕在线一区二区,最新中文字幕在线视频网站