《AI芯片行業深度:行業現狀、政策分析、產業鏈及相關公司深度梳理-240624(34頁).pdf》由會員分享,可在線閱讀,更多相關《AI芯片行業深度:行業現狀、政策分析、產業鏈及相關公司深度梳理-240624(34頁).pdf(34頁珍藏版)》請在三個皮匠報告上搜索。
1、 1/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 行業研究報告 慧博智能投研 AI芯片行業深度:芯片行業深度:行業現狀行業現狀、政策分析政策分析、產、產業鏈及相關公司深度梳理業鏈及相關公司深度梳理 AI 芯片是針對人工智能算法做了特殊加速設計的芯片。算力是人工智能發展的關鍵因素之一,隨著深度學習算法的普及和應用,人工智能對算力提出了更高的要求,傳統的 CPU 架構難以滿足人工智能算法對算力的要求,因此具有海量數據并行計算能力、能加速計算處理的 AI 芯片應運而生。在全球數字化、智能化的浪潮下,智能手機、自動駕駛、數據中心、圖像識別等應用推動 AI 芯片市場迅
2、速成長。下面我們將以 AI 芯片為研究對象,首先講解 AI 芯片的重要性及其發展歷程,并詳細闡述 AI 芯片的分類。隨后,我們將分析當前 AI 芯片行業的現狀,并探討其重點發展方向。此外,我們還將對主要 AI 芯片廠商的研發情況進行介紹。最后,我們將梳理 AI 芯片的產業鏈,分析其中的關鍵環節,并指出可能從中受益的公司。希望通過這些內容,能夠增進大家對 AI 芯片的認識。目錄目錄 一、行業概述.1 二、AI 芯片分類解讀.3 三、行業現狀.9 四、政策環境分析.11 五、AI 芯片研發情況.12 六、產業鏈分析.26 七、國內相關公司.31 八、未來展望.33 九、參考研報.34 一、行業一、
3、行業概述概述 1、AI 芯片:人工智能的基石芯片:人工智能的基石 自 2018 年 GPT-1.0模型首次發布以來,OpenAI 不斷迭代模型,GPT-4.0 模型擁有更大的參數量、更長的迭代時間和更高的準確性。隨著數據不斷增長和算法復雜度提高,人工智能對計算力提出了更高的要求。因此 AI 芯片人工智能的基石,算力是實現人工智能產業化的核心力量,其發展對人工智能技術的進步和行業應用起著決定性作用。2/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 釋放算力的價值對國家整體經濟發展將發揮推動作用。計算力指數每提高 1點,數字經濟和 GDP將分別增長 3.5和 1.
4、8??梢?,國家計算力指數越高,對經濟的拉動作用越強。2021-2026 年期間,預計中國智能算力規模年復合增長率達 52.3%,同期通用算力規模年復合增長率為 18.5%。2、AI 芯片發展的三個階段芯片發展的三個階段 廣義上講只要能夠運行人工智能算法的芯片都叫做 AI 芯片。但是通常意義上的 AI 芯片指的是針對人工智能算法做了特殊加速設計的芯片。AI 芯片也被稱為 AI 加速器或計算卡,即專門用于處理人工智能應用中的大量計算任務的模塊(其他非計算任務仍由 CPU 負責)。第一階段:因為芯片算力不足,所以神經網絡沒有受到重視。第二階段:通用芯片 CPU 的算力大幅提升,但仍然無法滿足神經網絡
5、的需求。第三階段:GPU和新架構的 AI 芯片推進人工智能落地。3、AI 芯片分類芯片分類 PBOAoPnQnOnRsQoRzRtQnQtPoM7N9RbRtRoOsQmQiNpPoQeRpNsP9PmNtMxNoNmOuOtPuM 3/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 所謂 AI 芯片,其實是在 CPU 等傳統芯片的基礎上,針對 AI 算法(以深度學習為代表的機器學習算法)做了特殊加速設計的芯片,換言之,是犧牲了一定的通用性,換取了芯片在海量數據并行計算方面的效率提升。AI 芯片根據其技術芯片根據其技術架構,可分為架構,可分為 GPU、FPGA、
6、ASIC 及類腦芯片,同時及類腦芯片,同時 CPU 可執行通用可執行通用 AI 計算。計算。相較于傳統的中央處理器(CPU),GPU 具有并行計算、高效能和高并發等優勢,因此在人工智能、機器學習、數據挖掘等領域得到廣泛應用。AI 芯片根據其在網絡中的位置可以分為云端芯片根據其在網絡中的位置可以分為云端 AI 芯片、邊緣及終端芯片、邊緣及終端 AI 芯片;根據其在實踐中的目標,芯片;根據其在實踐中的目標,可分為訓練芯片和推理芯片??煞譃橛柧毿酒屯评硇酒?。云端云端主要部署訓練芯片和推理芯片,承擔訓練和推理任務,具體指智能數據分析、模型訓練任務和部分對傳輸帶寬要求比高的推理任務;邊緣和終端邊緣和終
7、端主要部署推理芯片,承擔推理任務,需要獨立完成數據收集、環境感知、人機交互及部分推理決策控制任務。其中應用在云端和邊緣計算服務器上的 AI 芯片是以 GPU 為代表的強通用性芯片,而終端 AI 芯片更多是將 AI 功能模塊結合 CPU、GPU、ISP 等模塊融合進 SoC 中,并針對語音識別、人臉識別等不同的應用場景完成定制化設計,同時需要做好性能與功耗的平衡。二、二、AI 芯片分類解讀芯片分類解讀 4/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 1、從、從技術層面分類技術層面分類 AI 芯片分為 GPU、FPGA、ASIC 和 NPU 等。GPU是一種通用
8、型芯片,ASIC是一種專用型芯片,而FPGA 則處于兩者之間,具有半定制化的特點。(1)GPU:AI 高性能高性能計算王者計算王者 GPU 設計之初用于對圖形進行渲染,需要并行處理海量數據,涉及大量矩陣運算。深度學習依賴于數學和統計學計算,所以圖形渲染與深度學習有著相似之處,這兩種場景都需要處理每秒大量的矩陣乘法運算。GPU 擁有數千個內核的處理器,能夠并行執行數百萬個數學運算。因此 GPU完美地與深度學習技術相契合。使用 GPU 做輔助計算,能夠更快地提高 AI 的性能。GPU 形成兩條分支。傳統 GPU:用于圖形圖像處理,因此內置了一系列專用運算模塊,如視頻編解碼加速引擎、2D 加速引擎、
9、圖像渲染等;GPGPU:通用計算圖形處理器(general-purpose GPU)。為了更好地支持通用計算,GPGPU 減弱了 GPU 圖形顯示部分的能力,將其余部分全部投入到通用計算中,同時增加了專用向量、張量、矩陣運算指令,提升了浮點運算的精度和性能,以實現人工智能、專業計算等加速應用。5/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 大模型的基礎架構向大模型的基礎架構向 Transformer 結構收斂。結構收斂。Transformer 結構在圖、文、音多領域表現優異,大量基于 Transformer 結構的大模型涌現。Transformer 模型預訓
10、練由多個堆疊的自注意力層和前饋神經網絡層組成,這種設計使得它在構造大型深度神經網絡時具有巨大優勢。BERT 和 GPT 是兩種最知名的基于 Transformers 的自然語言處理模型。大模型的發展,使得算法技術路線逐漸統一于大模型的發展,使得算法技術路線逐漸統一于 Transformer 模型,算力芯片技術路線也向適合并行計模型,算力芯片技術路線也向適合并行計算的算的 GPU 收斂。收斂。Transformer 架構具有并行計算的能力,可以同時處理輸入序列的不同部分。在使用分布式計算和 GPU并行計算的情況下,Transformer 可以更快地訓練和推理大型深度神經網絡。大模型需要大算力和大
11、互聯,對底層 GPU 支撐規模提出了空前的要求,達到萬卡級別。因此,出于對大模型的訓練需求,市場選擇了 GPU 作為主流的算力芯片。據 IDC,在中國人工智能芯片市場,GPU 占有超過 80%的市場份額。異構計算仍然是芯片發展趨勢之一,異構計算仍然是芯片發展趨勢之一,CPU+GPU 是人工智能異構計算的主要組合形式。是人工智能異構計算的主要組合形式。異構計算通過在單一系統中利用不同類型的處理器(如 CPU、GPU、ASIC、FPGA、NPU 等)協同工作,執行特定任務,以優化性能和效率,更高效地利用不同類型的計算資源,滿足不同的計算需求。得益于硬件支持與軟件編程、設計方面的優勢,CPU+GPU
12、 成為了目前應用最廣泛的平臺。截至 2023年 10 月,中國市場普遍認為“CPU+GPU”的異構方式是人工智能異構計算的主要組合形式。6/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 英偉達引領英偉達引領 GPU 計算潮流。計算潮流。英偉達的 GPU 主導了 AI計算的市場。1999年,英偉達首次提出可從真正意義上替代 CPU渲染的 GPU 概念,把顯卡帶入了全硬件處理時代,并在之后持續深耕于 GPU產品。2006 年之后,英偉達為解決 GPU 編程的復雜度問題推出通用并行計算平臺 CUDA,大幅降低了用GPU 做通用計算的難度,為后續 AI 算力的支撐打下
13、基礎。(2)FPGA:靈活可編程,持續創新滿足:靈活可編程,持續創新滿足 AI 計算需求計算需求 FPGA 是一種半定制、可編程的集成電路,具有模塊化和規則化的架構,主要由三部分組成,分別為CLB(可編程邏輯塊)、I/O(輸入輸出單元)和內部連接線,用戶可以通過更新 FPGA 配置文件來定義這些門電路及存儲器之間的連線,以達到重構的目的。相較于相較于 CPU 和和 GPU,FPGA 在靈活性、功在靈活性、功耗和時延等方面具備優勢,能夠在較低的功耗下達到耗和時延等方面具備優勢,能夠在較低的功耗下達到 GFLOPS 數量級的算力,在人工智能算法不斷迭數量級的算力,在人工智能算法不斷迭代的情況下,代
14、的情況下,FPGA 的特性能較好地滿足的特性能較好地滿足 AI 的運算需求。的運算需求。(3)ASIC:針對特定需求設計,具備性能優勢:針對特定需求設計,具備性能優勢 ASIC 是指針對特定用戶要求和特定電子系統的需要而設計的集成電路,相較于通用型芯片在性能、功耗上具備優勢。與 FPGA 相比,ASIC專用度較高、計算效率更好,在開發流程中,ASIC 的非重復成本較高,但隨著規?;慨a的實現,單個芯片的成本會隨著產量的增加而降低,具備批量生產的成本優勢。因此,在技術、算法尚未成熟階段,在技術、算法尚未成熟階段,FPGA 架構靈活改變芯片功能,有利于降低成本和風險;而隨著技架構靈活改變芯片功能,
15、有利于降低成本和風險;而隨著技術、算法的普及,術、算法的普及,ASIC 更具備競爭優勢。更具備競爭優勢。7/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 2、應用層面上應用層面上 根據用途,根據用途,AI 芯片分為芯片分為“訓練(訓練(Training)”芯片和芯片和“推理(推理(Inference)”芯片。芯片?!坝柧毿酒敝饕糜谌斯ぶ悄芩惴ㄓ柧?,即在云端將一系列經過標記的數據輸入算法模型進行計算,不斷調整優化算法參數,直至算法識別準確率達到較高水平?!巴评硇酒敝饕糜谌斯ぶ悄芩惴ㄍ评?,利用訓練好的模型,使用新數據推理出各種結論,即借助現有神經網絡模型進
16、行運算,利用新的輸入數據來一次性獲得正確結論的過程。8/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 根據根據 AI 芯片的應用場景,又可分為云端(云)、邊緣端(邊)和終端(端)和三種,芯片的應用場景,又可分為云端(云)、邊緣端(邊)和終端(端)和三種,云、邊、端三種場景對芯片的算力和功耗有著不同的要求,單一芯片難以滿足實際應用的需求。不同用途(訓練/推理)、不同應用場景(端-邊-云)對 AI 芯片有著不同的要求。首先,訓練芯片追求的是高計算性能(高吞吐率)、低功耗,但是推理芯片主要追求的是低延時(完成推理過程所需要的時間盡可能短)、低功耗?!岸?邊-云”三個
17、環節對 AI 芯片的有不同的要求。(1)云端:追求高性能和高算力芯片云端:追求高性能和高算力芯片 當前,大多數 AI 訓練和推理工作負載都在云端進行,云端仍是 AI 的中心。AI 服務器具有超高計算性能,是 AI 應用的核心基礎設施,根據 TrendForce 數據,2023 年全球 AI 服務器出貨量近 120 萬臺,同比增長約 38%,預計 2024年將達 150 萬臺。由于云端需要對巨量、復雜的數據進行運算,對于 AI 芯片的性能和算力要求較高,當前 AI 服務器主要采用 GPU 方案,而與此同時 ASIC、FPGA、NPU 等非 GPU芯片也在不斷迭代以滿足需求。(2)終端:產品多樣化
18、催生大量需求終端:產品多樣化催生大量需求 終端 AI 芯片追求以低功耗完成推理任務,以實際落地場景需求為導向,在能耗/算力/時延/成本等方面存在差異。終端 AI 芯片主要應用在消費電子、智能駕駛、智能家居和智慧安防等領域,隨著終端產品類型增加和出貨量的增長,催生了大量芯片需求。與此同時,終端 AI 芯片直接面向下游產品,往往以實際需求為導向,對芯片的性能與成本有更高的要求。(3)邊邊緣端:邊緣數據積累逐漸增多緣端:邊緣數據積累逐漸增多 邊緣 AI 芯片介于終端與云端之間,承接低時延/高隱私要求/高網絡帶寬占用的推理或訓練任務。邊緣AI 芯片的算力要比終端更強,通常都是獨立解決問題,且有用豐富的
19、外設,強調信息的可獲得性。在AI 算法的驅動下,邊緣 AI 芯片不僅能自主進行邏輯分析與運算,還能動態實時進行自我優化、調整策略。建立在邊緣的數據分析和處理能夠分擔云端的壓力,大幅提升效率和降低成本。隨著全球智能化、數據化的迅速發展,帶來了數據的指數級增長,大量的數據在邊緣端積累,預計隨著數據量的進一步提升,邊緣端 AI 芯片的需求會進一步增長,對芯片的性能也將提出更高要求。9/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 三三、行業、行業現狀現狀 1、國外芯片巨頭占據了大部分市場份額,我國正努力實現國產替代國外芯片巨頭占據了大部分市場份額,我國正努力實現國產
20、替代 在在 AI 芯片領域,國外芯片巨頭占據了大部分市場份額。芯片領域,國外芯片巨頭占據了大部分市場份額。全球范圍內主要布局人工智能芯片的廠商有Intel、NVIDIA、Qualcomm、Google 等。美國的巨頭企業,憑借著多年在芯片領域的領先地位,迅速切入 AI 領域并積極布局,目前已經成為該產業的引領者。我國我國 AI 芯片產業起步較晚,技術上與世界先進水平也還存在著較大的差距。芯片產業起步較晚,技術上與世界先進水平也還存在著較大的差距。國內 AI 芯片市場也較為分散,集中度低。隨著數字經濟的興起,人工智能已經深入滲透到各個行業,特別是在互聯網等科技公司中更為普及。這些公司對于計算機軟
21、件技術和存儲設備的要求極高,因此對于底層技術的布局和提升更為重視,尤其是在人工智能芯片領域。從競爭格局來看,從競爭格局來看,在不同的應用場景之下,已經形成了不同的在不同的應用場景之下,已經形成了不同的 AI 芯片競爭格局。芯片競爭格局。在云和數據中心 AI芯片市場,“訓練”和“推理”兩個環節都是英偉達 GPU一家獨大。在設備端和邊緣計算“推理”市場,各類型芯片各自為陣,尚無絕對優勢地位的芯片廠商出現:手機市場以高通、華為、蘋果原主控芯片廠商為主,自動駕駛、安防 IPC 領域英偉達暫時領先。近年來,國內也出現了寒武紀、百度、地平線等優質本土廠商發力布局相關產品。10/34 2024 年年 6月月
22、 24 日日 行業行業|深度深度|研究報告研究報告 目前,華為、海光信息、寒武紀等巨頭堅持迭代升級,其產品性能日益提升,有望在 AI 訓練算力領域獲得更多市場份額,實現國產替代。另外,相比于 AI 訓練芯片,推理芯片的性能要求以及精度要求較低,部分國產 AI 芯片憑借其良好性能以及性價比能夠滿足推理端的需求,我國 AI 芯片國產化比例有望提升。2、市場需求旺盛,國產云端市場需求旺盛,國產云端 AI 算力芯片大有可為算力芯片大有可為 在全球生成式人工智能浪潮帶動下,國產大模型也不斷取得技術進展,部分企業在能力上已經可以與海外主流模型實現對標。國產大模型技術的迭代和訪問調用量的增加,對應了訓練端更
23、大規模算力硬件集群的采購需求,以及推理端的逐步擴容。受到貿易摩擦影響,海外核心云端 AI 芯片進入大陸市場受限,國產替代迫切性高。盡管當下國產云端 AI 芯片在硬件性能、系統生態方面與全球領先水平均存在一定差距,但國產化窗口期已至,行業有望于年內迎來重要商業化落地轉折點。3、邊緣邊緣 AI 芯片規模穩健成長芯片規模穩健成長 相比云端 AI 芯片需要兼具訓練和推理性能,邊緣 AI 芯片則更多承擔推理任務,其主要存在形式是作為AI SoC 嵌入終端設備,因此性能上更加追求在算力、功耗和成本等多方面的綜合表現。目前,邊緣 AI芯片正越來越多地應用在非消費類設備和場合,比如智能安防、ADAS/自動駕駛
24、、智能家居、可穿戴智能設備,以及商業和工業場合的 AI 應用(智能交通、智慧城市、工廠機器視覺、機器人和 AGV 等)。邊緣 AI 芯片也將迎來蓬勃發展。據德芯半導體援引 Gartner 統計,2022 年中國邊緣 AI 芯片市場規模約為 49.9 億美元,預計到 2025 年,中國邊緣 AI 芯片市場規模將增長到 110.3 億美元,較 2022 年增長 121%。4、硬件性能硬件性能上上單卡及單卡及互聯能力需協同發展互聯能力需協同發展(1)單一單一 GPU:制程和微架構迭代是核心要素:制程和微架構迭代是核心要素 芯片制程通過改變單位面積晶體管密度影響芯片的算力和性能表現。芯片制程通過改變單
25、位面積晶體管密度影響芯片的算力和性能表現。制程原意為單個晶體管的柵極長度,而后伴隨技術逐漸逼近物理極限,制程與柵長不再一一對應,成為代表技術迭代的約定俗成的說法。一般而言,制程節點越小,晶體管尺寸越小,芯片制程的迭代意味著單位面積晶體管密度的提升,而后者對于提升芯片性能、降低能耗較為關鍵。從 Volta 架構對應的單 Die 12nm 制程與 211 億晶體管數量到 11/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 最新發布的 Blackwell 架構下單 Die 臺積電 4NP 制程與 1040億晶體管數量,英偉達 GPU 制程的持續優化有助于其保持產品競
26、爭力。芯片微架構決定了數據計算方式、存儲方式及流向,不同微架構設計會對芯片微架構決定了數據計算方式、存儲方式及流向,不同微架構設計會對 GPU 最終性能產生較大影響。最終性能產生較大影響。例如:英偉達持續的架構升級帶來了單芯片的性能領先:從最初的 Fermi,到 Ampere 架構,再到Hopper 架構,通過引入 CUDA 統一編程計算平臺、GPU Boost 動態提速技術、RT 核心和 Tensor 核心等技術,使得公司 GPU 產品每一階段的存算性能及能效比均呈現提升,在圖形渲染、科學計算和深度學習等領域構筑了產品護城河。英偉達能夠持續、快速迭代產品的關鍵在于其過去積累已久的產品研發經驗
27、,以及在服務客戶過程中對 AI 運算需求的理解帶來的先發優勢。(2)卡間互聯:分布式計算環境下,通訊帶寬不斷升級大勢所趨卡間互聯:分布式計算環境下,通訊帶寬不斷升級大勢所趨 當下隨著人工智能應用計算量增大,由單芯片逐步轉向分布式計算,而多當下隨著人工智能應用計算量增大,由單芯片逐步轉向分布式計算,而多 GPU 間通信時間通信時 PCle 或存在或存在帶寬瓶頸。帶寬瓶頸。AI 算力的持續增強不僅依靠 GPU 單卡的性能提升,往往還需要多 GPU 卡組合。在多 GPU系統內部,GPU之間的通信帶寬通常在數百 GB/s 以上,PCIe 總線的帶寬有限,容易形成傳輸瓶頸;此外,PCIe 無法實現 GP
28、U 的直接互連,需要通過 PCIe Switch 連接,PCIe Switch 內部的數據處理、以及 CPU 對數據的分發調度均會增加額外的網絡延遲,影響系統運行效率,亟需性能更強的專用互連技術。5、軟件生態軟件生態也也會成為制約會成為制約 AI 芯片算力的瓶頸芯片算力的瓶頸 時至今日,算力對于 AI 的重要性已經人盡皆知。GPU從一眾芯片中脫穎而出成為大模型訓練和推理的首選。人們很自然的從一款芯片的性能數據來直觀感受芯片強大與否,所有的關注目光都聚焦在一款新品有多少 Tflops的算力上。然而,計算框架以及配套的軟件生態才是將一款芯片性能真正釋放出來的幕后推手,也是芯片公司極強的護城河。四四
29、、政策環境分析、政策環境分析 美國對中國先進芯片進口限制持續升級。美國對中國先進芯片進口限制持續升級。2023 年 10月,美國頒布新的半導體出口限制,對芯片算力和性能密度做了更嚴格的規定,A100/A800、H100/H200/H800、L4、L40s 均不滿足出口條件。在2022 年 8 月,美國首次針對中國實施大規模芯片出口制裁,停止出口 A100 和 H100 兩款芯片和相應產品組成的系統。本次制裁主要限制總計算性能(算力*位寬)4800且互聯帶寬600GB/s的高端 AI 芯片出口,在制裁后,英偉達為中國重新設計了 A800 和 H800 兩款“閹割版”芯片,主要在互聯速率和雙精度計
30、算性能上做了限制。2023 年 10 月升級版本的芯片禁令加大了打擊力度,性能滿足以下條件均受出口管制:(1)總計算能力 TPP(算力*位寬)超過 4800 的芯片;(2)TPP 超過 1600 且 PD(TPP/芯片面積)超過 5.92 的芯片;(3)2400TPP4800,且 1.6PD5.92 的芯片;(4)1600TPP,且 3.2PD5.92 的芯片。在此要求下,A100/A800、H100/H200/H800、L4、L40s 均不滿足出口條件,英偉達只能全方位削弱芯片算力,向中國提供 H20、L20、L2 芯片。而近日美國政府再次升級對華半導體出口管制措施。參考鈦媒體信息,北京時間
31、 2024 年 3月 30 日凌晨,美國商務部下屬的工業與安全局(BIS)發布“實施額外出口管制”的新規措施,修訂了 BIS 于 2022、2023 年 10 月制定的兩次出口限制新規,全面限制英偉達、AMD 以及更多更先進 AI 芯片和半導體設備向中國銷售,此次新規中,BIS 刪除和修訂了部分關于美國、中國澳門等地對華銷售半導體產品的限制措施,包括中國澳門和 D:5 國家組將采取“推定拒絕政策”,并且美國對中國出口的 AI 半導體產品將采取“逐案審查”政策規則,包括技術級別、客戶身份、合規計劃等信息全面查驗。12/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告
32、 近年我國近年我國 AI 芯片行業受到了前所未有的重視和支持。芯片行業受到了前所未有的重視和支持。為了推動 AI 芯片行業的蓬勃發展和技術創新,國家相繼出臺了多項政策,不僅為 AI 芯片行業描繪出了明確且廣闊的市場前景,如國家能源局關于加快推進能源數字化智能化發展的若干意見全國一體化政務大數據體系建設指南以及“十四五”國民健康規劃等,還為企業提供了優質的生產經營環境,確保了行業的穩健前行。五、五、AI 芯片芯片研發研發情況情況 1、國外芯片巨頭為產業的引領者國外芯片巨頭為產業的引領者(1)英偉達)英偉達:通過架構演進保持在通過架構演進保持在 AI 芯片市場的領導地位,大幅提升了芯片市場的領導地
33、位,大幅提升了 AI 計算能力計算能力 英偉達目前在深度學習訓練芯片市場占據絕對壟斷地位。根據公司 2023 年 10月的投資者會議的展示,其 AI 芯片路線圖由往年的兩年更新一次提升至一年更新一次,預計 2024年推出 H200、B100 等,2025 年推出 X100 系列。13/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 英偉達推出的英偉達推出的并行計算平臺和編程模型并行計算平臺和編程模型 CUDA,目的是讓開發者能夠利用,目的是讓開發者能夠利用 GPU 的強大計算能力,不的強大計算能力,不僅限于圖形渲染,還能執行各種復雜的計算任務。僅限于圖形渲染,還
34、能執行各種復雜的計算任務。簡單來說,CUDA 就像是一個橋梁,它讓程序員能夠用類似于 C 語言的編程方式來編寫代碼,這些代碼不僅能夠在 CPU 上運行,還能在 GPU上運行。CUDA 的出現開啟了 GPU 通用計算的新時代,使得 GPU 不再只是圖形處理的專用設備,而是成為了一種強大的通用計算資源。CUDA能夠逐層拆解任務顯著提升 GPU 并行處理效率;通過提供合理的內存訪問方式減少延遲;缺少 CUDA 優化,GPU的可用性將大幅下降,同時 CUDA 擁有龐大的軟件生態,使用戶得以充分利用 GPU的并行計算能力。除除 CUDA Core 外,英偉達還針對外,英偉達還針對 AI 訓練優化硬件推出
35、訓練優化硬件推出 Tensor Core。Tensor Core 是英偉達 GPU中的創新硬件單元,專為加速人工智能(AI)運算而設計。它們通過優化的矩陣乘法運算,顯著提升了深度學習模型訓練和推理的速度。在深度學習中,矩陣乘法是核心操作,Tensor Core 能夠在單個時鐘周期內完成多個浮點運算,從而大幅提高計算效率。這種硬件加速對于處理大規模神經網絡和復雜數據集至關重要,它使得研究人員和開發者能夠更快地迭代模型,實現更高效的 AI 應用開發。Tensor Core的引入,不僅提升了 GPU 在 AI 領域的性能,也為 AI研究和商業應用的快速發展提供了強大的支持。CUDA 架構與 Tens
36、or Core 的協同工作極大提升了 AI 計算效率。英偉達 GPU 在 2008-2022 年內,架構迭代調整了 8 次,在 2017 年 Volta 架構中首次推出加速深度學習算法矩陣計算的 Tensor Core,并在后續推出的 Turing、Ampere、Hopper 架構上不斷優化、加強。擁有 Tensor 核心的 V100 相比于 P100 其混合精度運算速度提高了 9 倍,而英偉達推出的第四代Tensor 核心,其 FP8性能較 Ampere 提高 16 倍,在 AI大型語言模型推理方面,性能比 Ampere 高出30 倍。2024 年英偉達發布 Blackwell 新架構。Bl
37、ackwell 架構 GPU 具有 2080 億個晶體管,采用專門定制的臺積電 4NP 工藝制造。所有 Blackwell產品均采用雙倍光刻極限尺寸的裸片,通過 10TB/s 的片間互聯技術連接成一塊統一的 GPU,是公司首次采用雙 Die 架構的產品。Blackwell Transformer 引擎 14/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 利用稱為微張量縮放的細粒度縮放技術,優化性能和準確性,支持 4 位浮點(FP4)AI。這將內存可以支持的新一代模型的性能和大小翻倍,同時保持高精度。NVLink 是專用于英偉達是專用于英偉達 GPU 之間的點對
38、點互連協議。之間的點對點互連協議。英偉達針對異構計算場景于 2014年開發了NVLink 技術,NVLink 實現了 GPU 之間的直接互連,可擴展服務器內的多 GPU輸入/輸出(I/O),提供相較于傳統 PCIe 總線更加快速、更低延遲的系統內互連解決方案。NVLink 1.0 的雙向傳輸速率為160GB/s,此后 NVLink 隨著 GPU 體系結構的演進而同步迭代升級。3 月 19日的 GTC 2024 Keynote上,英偉達發布第五代 NVLink 高速互連方案,兩個 B 系列 GPU 芯片間通過 18 條 NVLink5.0鏈路連接,最高雙向總帶寬提升至 1.8TB/s,較第四代提
39、升一倍,約為 x16 PCIe5.0 鏈路總帶寬的 14 倍。英偉達第五代 NVLink 技術的推出顯著提升 GPU 間通信效率,有望從 C2C 互連層面進一步強化其 AI 芯片集群計算性能,鞏固自身產品護城河。15/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 除除 NVLink 外,英偉達還擁有自研交換芯片外,英偉達還擁有自研交換芯片 NV Switch,解決,解決 GPU 間通訊不均衡問題。間通訊不均衡問題。在 DGX P100架構中,8 個 GPU通過 NVLink 形成環狀連接,無法完全實現點對點的連接。為了解決上述 GPU之間通訊不均衡問題,英偉達
40、引入基于 NVLink 高級通信能力構建的 NV Switch 芯片能夠在節點間擴展NVLink,創建無縫、高帶寬的多節點 GPU 集群,實現所有 GPU 在一個具有全帶寬連接的集群中協同工作。GTC 2024大會上,英偉達發布新一代 NVLink Switch:單顆 NV Switch 芯片采用臺積電 4NP 制程工藝,支持 72 個雙向 200G SerDes 端口(應用 224G PAM4 SerDes 技術)。新一代 NVLink Switch最多可實現 576 個 GPU的互連,大幅擴展了 NVLink 域,聚合總帶寬提升至 1PB/s,助力萬億級以上參數量 AI 大模型釋放加速性能
41、。同時,英偉達也通過 NVLink-C2C 技術將 NVLink 擴展至封裝級,借助先進封裝支持芯?;ミB,Grace CPU 與 Blackwell GPU 之間支持 900GB/s 雙向帶寬的通信。(2)AMD:調整架構和產品,加強生態建設,提升與英偉達的競爭力調整架構和產品,加強生態建設,提升與英偉達的競爭力 AMD 調整微架構,實現對英偉達在硬件端的追趕調整微架構,實現對英偉達在硬件端的追趕。AMD 將其 GPU 架構開發分為單獨的 CDNA 和RDNA 線路,分別專門用于計算和圖形。CDNA 主要是刪除了對圖形的支持指令,專注于通用計算,增加了 Matrix Cores 的支持。CDN
42、A1 最重要的特性是引入了對矩陣乘法的支持,矩陣單元包含了專用的ACC Vector 寄存器,與通用的 VGPR 大小相同。CDNA2 為 AMD 帶來了顯著的成功。MI250X 和MI210GPU 被多個超級計算機產品所采用。在內存方面,CDNA3 時期,RDNA 系列的 Infinity Cache被引入 CDNA 領域,以緩解帶寬問題。此外,此外,AMD 將其在將其在 CPU 領域豐富的領域豐富的 Chiplet 經驗擴展至經驗擴展至 GPU 領域,通過多領域,通過多 Die 封裝縮小與英偉達封裝縮小與英偉達的差距。的差距?;?CDNA2 架構的 MI200 系列芯片采用了業內首創多
43、Die 整合封裝(MCM),通過 2.5DEFB橋接技術在單芯片上集成兩個 Die,搭配臺積電 6nm 工藝,共擁有 580 億個晶體管;基于 CDNA3 架構的 MI300 系列同樣采用 Chiplet 設計,通過 3D 封裝技術集成 CPU 和加速計算單元,增強單芯片擴展性,以縮小與英偉達的差距。AMD GPU 領域有望每年發布一款新芯片,領域有望每年發布一款新芯片,MI325X、MI350X 指標突出。指標突出。在 2023 年 12 月 AMD 舉辦的“Advancing AI”活動中,公司正式宣布推出 MI300X 產品,其性能接近 H100,甚至在特定場景下表現出色。根據公司介紹,
44、MI300X 采用 3D 堆疊技術,在單芯片上形成由 8 顆加速計算單元(XCD)、4 個 I/O Die(IOD)和 8 個 HBM 組成的 12 顆 5nm 的 Chiplet 集成系統,晶體管數量達到 1530億,16/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 提供 192GB 的 HBM3 內存,分別為 H100 的 1.9/2.6 倍。因而在訓練性能方面 MI300X 與 H100 不相上下,并提供相對具有競爭力。蘇姿豐宣布 24年底發布 MI325X,25 年將發布 MI350X 系列,26年則有望看到 MI400的面世。相比英偉達 H200,
45、AMD Instinct MI325X 的計算性能是其 1.3 倍、內存容量是其 2 倍、帶寬是其 1.3 倍,而 MI350X 則是基于臺積電公司的 3 納米制程工藝,擁有 288GB 的 HBM3E 內存并支持 FP6/FP4 數據類型。AMD 最新最新 Ryzen 系列芯片支持端側智能。系列芯片支持端側智能。Computex大會上,AMD CEO 蘇姿豐發布了第三代 AMD RyzenAI 系列和 AMD Ryzen9000 系列處理器。其中,新款 RyzenAI 芯片基于 AMD 最新的神經、集成顯卡和通用處理架構:NPU采用 XDNA2,iGPU采用 RDNA3.5(最多有 16 個
46、計算單元),CPU采用Zen5,其中 AI 算力達到了 50TOPS,超過高通驍龍 X系列的 45TOPS、蘋果 M4 的 38TOPS。而Ryzen9000 基于下一代 Zen5 高性能核心打造,采用 AM5 平臺,提供 PCIe5.0 和 DDR5 支持,在游戲與 AI 并行計算能力上都有突出表現。AMD 發現了生態的重發現了生態的重要性,開始追趕。要性,開始追趕。直到 2015 年,AMD 開始布局軟件生態,推出 ROCm(Radeon Open Compute Platform)對標 CUDA,搭建運用于高性能計算(HPC)和大規模 GPU 計算的開源軟件開發平臺。此外,ROCm 針對
47、 AMD 自家硬件,一定程度提供了更優化和特定的支持,包括性能優化、調試工具和庫。此外,區別于 CUDA 的全閉源特性,ROCm 作為后發者采用的是開源生態,以此吸引和搶占使用者。目前,針對 CUDA 生態,ROCm 基本都有對應產品,形成競爭。2、互聯網、互聯網大廠發力大廠發力 AI 芯片自研芯片自研 目前各大云計算目前各大云計算廠商與頭部科技公司逐漸成為新入局者代表,正紛紛加速推進自研廠商與頭部科技公司逐漸成為新入局者代表,正紛紛加速推進自研 AI 芯片。芯片。放眼全球,各互聯網大廠放眼全球,各互聯網大廠 2023 年自研芯片建設明顯加速,各自發布最新產品,包括谷歌的年自研芯片建設明顯加速
48、,各自發布最新產品,包括谷歌的 TPU v5p與與 v5e、微軟的、微軟的 Maia100、亞馬遜的、亞馬遜的 Trainium、Meta 的的 MITAv1,但綜合性能上較英偉達有一定,但綜合性能上較英偉達有一定差距。差距。以 H100芯片作為參照進行對比,其 FP16/BF16算力分別是谷歌 TPU v5p/微軟 Maia100/亞馬遜 Trainium2/Meta MTIA 的 4.3/2.5/3.0/38.7 倍,顯存帶寬分別是谷歌 TPU v5p/微軟 Maia100/亞馬遜 Inferentia2/Meta MTIA 的 1.2/2.1/4.2/4.3 倍。17/34 2024 年
49、年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 (1)谷歌:長久布局自研谷歌:長久布局自研 TPU,最新版本性能超越,最新版本性能超越 A100 谷歌自研芯片 TPU 是為加速機器學習定制開發的 ASIC產品。谷歌較早布局自研芯片,至今已經歷 4輪迭代。初代 TPU 于 2016 年 Google I/O 開發者大會正式發布,只能支持 8 位整數運算,僅可應用于推理端;2017年推出的 TPU v2 具有 256 個芯片數量,同時支持浮點運算,逐步開始應用于訓練場景;TPU v3/v4 分別于 2018/2021 年發布,峰值計算性能分別較前一代產品提升 167%/124%。最新
50、一代TPU v5 于 2023 年 12 月與 Gemini1.0 一同推出,具有 TPU v5e、TPU v5p兩款產品,v5e 成本效益比最顯著,而 v5p 功能最為強大,主要針對需要大規模計算能力的任務,相較于 TPU v4,TPU v5p 訓練大型 LLM 模型的速度提升 2.8 倍、訓練嵌入密集模型的速度較 TPU v4 快 1.9 倍。Google 旗下大模型Gemini 便是采用 TPU 進行訓練與服務。(2)亞馬遜:堅定自研,亞馬遜:堅定自研,CPU/訓練芯片訓練芯片/推理芯片齊頭幵進推理芯片齊頭幵進 2015 年,亞馬遜以 3.5 億美元收購以色列芯片設計初創公司 Annap
51、urna Labs,拉開自研芯片序幕,CPU(Graviton)、訓練芯片(Trainium)、推理芯片(Inferentia)均有產出且不斷更新換代。CPU端,2018 年推出基于 Arm 的 Graviton一代,后續不斷更新,于 2023 年 11 月發布 Graviton4,集成96 個 Arm Neoverse V2 內核,每個內核配置 2MB 的 L2 緩存,加上 12 個 DDR5-5600通道,性能較Graviton3 提升 40%。訓練芯片端,2020 年 12 月發布第一款訓練芯片 Trainium,于 2022 年交付使用,18/34 2024 年年 6月月 24 日日
52、行業行業|深度深度|研究報告研究報告 2023 年推出 Trainium2,相較于第一代 Trainium 芯片訓練性能提升 3 倍、內存提升 2 倍,擴展性上最高支持 10 萬顆 Trainium2 芯片互聯,能實現高達 65exaflops 的算力,此規模下訓練一個 3000 億參數的 LLM 只要數周時間,預計 2024 年可交付使用。推理芯片端,2019 年推出了第一款推理芯片Inferentia,自推出以來已經為亞馬遜等公司節省超過一億美元的資本支出,2022 推出 Inferentia2,芯片吞吐量比 Inferentia1 高四倍、延遲低十倍。從應用情況看:1)Anthropic
53、 在 2023 年 9 月與亞馬遜達成戰略合作,將使用亞馬遜的 Trainium 和Inferentia 芯片進行未來基礎模型的訓練與部署,且雙方未來將合作開發新版本 Trainium 和 Inferentia芯片。2)Finch Computing 利用亞馬遜 Inferentia 芯片完成語言翻譯任務,推理成本相較使用 GPU 降低 80%。(3)微軟:自研芯片微軟:自研芯片 Maia100 初步問世初步問世 相較于谷歌和亞馬遜,微軟在定制服務器、存儲和數據中心方面起步較晚,最早于 2019年啟動名為“Athena”的內部自研計劃。直到 2023 年 11 月的 Ignite 大會,微軟首
54、次推出自研芯片 Azure Maia 100,主要用于云端訓練、推理以及 Azure 的高負載云端運算。Maia 100采用臺積電 5nm 制程工藝,晶體管數量達 1050億。根據微軟官網,Maia 100最初將為內部提供支持,后續將對外開放。微軟之外,旗下 19/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 大模型領先廠商 OpenAI 同樣有意自研芯片。2024 年 1月份期間,Open AICEO 山姆 奧爾特曼正在籌集資金建設半導體生產設施,生產用于人工智能(AI)應用的處理器。(4)Meta:自研推理芯片:自研推理芯片 MTIA 將于將于 2025
55、年推出年推出 2020 年,Meta 出于內部工作負載需求自研設計了第一款推理加速器 MTIA,該產品于 2023 年 5 月正式發布,預計將于 2025 年推出。MTIAv1 為深度學習推薦模型定制,采用 TSMC 7nm工藝制造,運行頻率為 800MHz,INT8/FP16 計算能力分別為 102.4TOPS/51.2TFLOPS,熱設計功耗(TDP)為 25W。從性能對比看,當前 MTIA 在低復雜性和中等復雜性模型的處理上具有較高每瓦性能,但在高復雜性模型上距離 GPU 仍有一定差距。根據最新消息,Meta 將新自研第二代 AI 推理芯片 Artemis。3、AI 芯片國產化趨勢已現芯
56、片國產化趨勢已現(1)華為昇騰:對標英偉達,有望成為國內第二華為昇騰:對標英偉達,有望成為國內第二 AI 算力生態算力生態 華為海思有超 20 年技術積累,芯片超 200 項自主知識產權,技術實力領先。目前有智能終端和處理器兩大產品線,處理器產品包括麒麟、昇騰、鯤鵬、巴龍、凌霄。目前在全球設有 12 個辦事處和研發中心,產品和服務遍布全球 100 多個國家和地區,有超 8000 項專利,研發實力突出。其中昇騰作為新一代智算芯片,有昇騰 310 與昇騰 910兩款產品。昇騰 310 是華為首款全棧全場景人工智能芯片,昇騰910 是華為目前推出的算力最強的 AI 芯片,集成了 CPU Core、D
57、VPP 和任務調度器(Task Scheduler),可以減少和 Host CPU的交互,充分發揮其高算力的優勢;還集成了 HCCS、PCle4.0 和 ROCE v2 接口,為構建橫向擴展(Scale Out)和縱向擴展(Scale Up)系統提供了靈活高效的方法。2023 年,華為新一代AI 芯片昇騰 910B 發布,芯片性能達到英偉達 A100 芯片水平,打破美國在人工智能芯片領域的技術壟斷地位。20/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 昇騰芯片搭載的華為獨創達芬奇架構神經網絡處理單元 NPU,該架構具有極具創新的高性能 3D Cube計算引擎
58、等關鍵技術,大幅提升 AI 計算的效率和靈活性,能夠在多場景,云、邊、端,提供最優算力支持。華為昇騰華為昇騰 AI 產業生態包括昇騰產業生態包括昇騰 AI 基礎軟硬件平臺,基礎軟硬件平臺,即 Atlas 系列硬件、異構計算架構 CANN、全場景AI 框架昇思 MindSpore、昇騰應用使能 MindX以及一站式開發平臺 ModelArts 等?;跁N騰 910系列板卡,華為推出了 AI 訓練集群 Atlas900、AI 訓練服務器 Atlas800、智能小站 Atlas500、AI 推理與訓練卡 Atlas300 和 AI 加速模塊 Atlas200,完成了 Atlas全系列產品布局。異構計
59、算架構異構計算架構 CANN 對標英偉達對標英偉達 CUDA+CuDNN 核心軟件層。華為通過核心軟件層。華為通過 CANN 和和 AscendCL 構建構建國產國產 GPU 軟件生態。軟件生態。CANN 旨在為開發者提供高效、靈活且易于使用的工具和服務,以便在華為昇騰AI 硬件上開發和部署各種人工智能應用。CANN 對上支持多種 AI 框架,對下服務 AI 處理器與編程,這意味著,無論使用哪種 AI 框架(如 TensorFlow、PyTorch 等),CANN 都能提供支持。同時,CANN 還提供了一套簡單易用的 AscendCL(Ascend Computing Language)編程接
60、口,為開發者屏蔽底層處理器的差異,使開發者只需要掌握一套 API,就可以全面應用于昇騰全系列 AI 處理器。此外,CANN 還提供了一鍵式模型遷移工具,支持主流框架模型快速遷移到昇騰平臺,遷移后精度/性能可調、易調。CANN通過多層次的抽象和優化,為開發者提供了從底層硬件到頂層應用的全方位支持,旨在簡化 AI 應用的開發流程,加速 AI 技術的創新和應用落地。CANN 提供底層計算能力的同時,提供底層計算能力的同時,MindSpore 提供深度學習框架功能。提供深度學習框架功能。MindSpore 是一款全場景深度學習框架,它通過提供函數式可微分編程架構,簡化了模型算法的數學表達,使得開發者能
61、夠更加專注于模型創新而非底層實現細節。MindSpore 在某些方面類似于 PyTorch 和 TensorFlow,這兩個框架都依賴于 CUDA 來在 NVIDIA GPU 上執行計算。此外,MindSpore 還提供了自動微分功能,允許開發者輕松計算模型的梯度,這對于訓練神經網絡至關重要。而 CANN 作為一個異構計算架構,它提供了類似于 CUDA Toolkit 的功能,作為底層的異構計算架構為 MindSpore 以及其他 AI 框架提供硬件加速和優化支持。CANN 使得 MindSpore 等框架能夠更好地利用昇騰 AI 處理器的算力,提高 AI 計算的性能和效率??偨Y來說,Mind
62、Spore 和 CANN 共同構成了華為昇騰 AI 生態的一部分,MindSpore 專注于AI 模型的開發,而 CANN 則提供底層的硬件支持和性能優化,兩者相互配合,共同推動 AI 應用的發展。21/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 (2)海光信息:類海光信息:類 CUDA 帶來更好的生態兼容性帶來更好的生態兼容性 海光信息新一代海光信息新一代 DCU(GPGPU)深算二號已經發布實現商用,可用于大模型訓練。深算三號研發順)深算二號已經發布實現商用,可用于大模型訓練。深算三號研發順利,公司產品持續迭代。利,公司產品持續迭代。中科曙光作為國產服務
63、器龍頭,是公司的第一大股東,有望充分受益中科系軟硬件的賦能。海光信息除了 CPU 產品實力出眾外,其 DCU 產品也性能、生態優異。公司 DCU 第一代產品深算一號于 2022 年實現了商業化應用,可以用于大模型的訓練,主要客戶是智算中心等“新基建”項目、行業用戶、AI 廠商及互聯網企業。海光與百度、阿里等頭部互聯網廠商推出聯合方案,打造全國產軟硬件一體全棧 AI 基礎設施。另外,海光 DCU深算二號已于 2023 年 Q3 發布,并實現在大數據處理、人工智能、商業計算等領域的商用。同時,深算三號研發進展順利。22/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告
64、 海光信息海光信息 DCU(GPGPU)“類類 CUDA”生態優異,工具鏈完整。生態優異,工具鏈完整。CUDA 被稱為英偉達最深的護城河。而海光 DCU(GPGPU)脫胎于 AMD,兼容主流生態:開源 ROCm(類 CUDA)GPU計算生態,支持TensorFlow、Pytorch 和 PaddlePaddle 等主流深度學習框架、適配主流應用軟件?,F有 CUDA 上運行的應用可以低成本遷移到基于 ROCm的海光平臺上運行。(3)寒武紀:云端芯片性能持續擴展,云邊終端協同覆蓋寒武紀:云端芯片性能持續擴展,云邊終端協同覆蓋 云端云端 AI 推理,高能效比國產芯片。推理,高能效比國產芯片。思元 2
65、70集成了寒武紀在處理器架構領域的一系列創新性技術,處理非稀疏人工智能模型的理論峰值性能提升至上一代思元 100 的 4 倍,達到 128TOPS(INT8);同時兼容 INT4 和 INT16 運算,理論峰值分別達到 256TOPS 和 64TOPS;支持浮點運算和混合精度運算。思元 270 采用寒武紀 MLUv02 架構,可支持視覺、語音、自然語言處理以及傳統機器學習等多樣化的人工智能應用,更為視覺應用集成了充裕的視頻和圖像編解碼硬件單元。推理卡研發迭代,性能持續提升。推理卡研發迭代,性能持續提升。思元 370是寒武紀首款采用 chiplet(芯粒)技術的 AI 芯片,集成了390 億個晶
66、體管,最大算力高達 256TOPS(INT8),是寒武紀第二代產品思元 270 算力的 2 倍。憑借寒武紀最新智能芯片架構 MLUarch03,思元 370 實測性能表現更為優秀。思元 370也是國內第一款公開發布支持 LPDDR5 內存的云端 AI 芯片,內存帶寬是上一代產品的 3 倍,訪存能效達 GDDR6 的 1.5 倍。搭載 MLU-Link多芯互聯技術,在分布式訓練或推理任務中為多顆思元 370 芯片提供高效協同能力。從軟件功能維度看,從軟件功能維度看,寒武紀軟件棧分為運行時庫、框架、分析工具、BANG 語言及工具、算子庫、視覺應用工具六部分,運行時庫提供底層設備接口支持上層模塊,框
67、架部分提供 AI 算法環境與接口,分析工具為開發者提供調試、調優工具,方便在硬件上優化 AI 框架及應用,BANG 語言及工具提供自定義算子開發能力,算子庫中包含 CNNL 等常見高性能算子,視覺應用工具提供端到端的視覺算法應用開發方案,降低開發視覺應用門檻。全新升級的寒武紀基礎軟件平臺,新增推理加速引擎全新升級的寒武紀基礎軟件平臺,新增推理加速引擎 MagicMind,實現訓推一體。,實現訓推一體。MagicMind 是面向寒武紀 MLU 的推理加速引擎。MagicMind 可以將更高層級的人工智能框架(TensorFlow、PyTorch、Caffe 與 ONNX 等)的算法模型轉換成 M
68、agicMind 統一計算圖表示,并提供端到端的模型優化、代碼生成以及推理業務部署能力。借助 MagicMind用戶僅需投入較少開發成本,即可將推理業務部署到寒武紀全系列產品上,并獲得頗具競爭力的性能。23/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 在 2022 年舉辦的 2022 世界人工智能大會上,寒武紀董事長、總經理陳天石博士透露全新一代云端智能訓練芯片思元 590 仍在研。思元 590 采用 MLUarch05 全新架構,它提供了更大的內存容量和更高的內存帶寬,其 IO 和片間互聯接口也較上代實現大幅升級。先進工藝保障芯片制造。先進工藝保障芯片制造
69、。公司已掌握 7nm 等先進工藝下開展復雜芯片物理設計的一系列關鍵技術,并且已將其成功應用于思元 100、思元 220、思元 270、思元 290、思元 370 等多款芯片的物理設計中。24/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告(4)百度:基于自研架構迭代,性能提升明顯,關注新一代百度:基于自研架構迭代,性能提升明顯,關注新一代 AI 芯片落地情況芯片落地情況 百度的對自研芯片布局最早可追溯至 2011年,最早布局方向為 FPGA AI 加速器,并于 2015 年部署超過 5000 片,后續逐步轉變方向,先于 Hot Chips 2017發布昆侖芯 X
70、PU 架構,后在 2018 年正式啟動昆侖芯 AI 芯片產品研發。百度的首款 AI 芯片“昆侖”最早于 2018 年 7 月對外公布、2019 年量產,2020年在微億智造的工業智能質檢設備上部署上線并首次大規模應用。2021 年,昆侖芯實現昆侖 2 代量產,并于 2022 年啟動互聯網及各行業客戶交付且取得實際進展,2023 年 9 月,昆侖芯與國芯科技簽訂戰略合作協議,將在邊緣 AI 計算、車規功能安全 SoC等技術領域展開長期合作?;谧匝屑軜嫷?,性能提升明顯?;谧匝屑軜嫷?,性能提升明顯。昆侖芯 1 代 AI 芯片基于昆侖芯自研架構 XPU 設計,采用 14nm工藝,針對云端推理場
71、景,支持通用 AI 算法。昆侖芯 2 代設計基礎為新一代自研架構 XPU-R,采用 7nm工藝,FP16 算力為 128TFLOPS,內存帶寬 512GB/s,通用計算核心算力相較昆侖芯 1 代提升 2-3 倍。目前,昆侖芯基于兩代通用 AI 計算處理器產品打造產品系列,包括 K100、K200、R100、R200,RG800 以及 AI 加速器組 R480-X8 等,滿足多種用戶需求。新一代昆侖芯片正在研發階段。(5)騰訊:自研與投資幵進,推理芯片紫霄性能接近英偉達騰訊:自研與投資幵進,推理芯片紫霄性能接近英偉達 A10 2018 年,騰訊投資 AI 芯片初創企業燧原科技,開始布局芯片自研,
72、目前旗下同時擁有高性能云端訓練產品云燧 T21/T21 及云端推理產品云燧 i20,2022 年投資 DPU 創業公司云豹智能。投資之外,騰訊內部自研同樣開始發力,2020 年成立蓬萊實驗室,2021 年騰訊數字生態大會上公布 3 款芯片進展,其中AI 推理芯片紫霄已經成功流片;截至 2023 年,紫霄已實現量產且在騰訊頭部業務規模部署,可提供 3倍的計算加速性能并節省超過 45%的整體成本。從性能參數看,紫霄 C100 性能接近英偉達 A10,FP16峰值算力近 2 倍于英偉達 A4。應用端,紫霄已在騰訊會議上實現應用落地,主要應用于實時字幕。25/34 2024 年年 6月月 24 日日
73、行業行業|深度深度|研究報告研究報告 (6)摩爾線程:推出摩爾線程:推出自研自研架構的架構的 MTTS4000 智算加速卡,實現高性能計算與多場景智算加速卡,實現高性能計算與多場景應用應用 摩爾線程的 GPU 產品基于其自研的 MUSA(MooreThreads Unified System Architecture)架構。這一架構融合軟硬件設計,包括統一的編程模型、軟件運行庫、驅動程序框架、指令集架構和芯片架構。此外,MUSA 平臺擴展性突出,基于 MUSA 開發的應用具有廣泛的可移植性,可同時運行在云端和邊緣的眾多計算平臺之上?;诘谌?MUSA 架構,摩爾線程推出的最新智算加速卡產品為
74、 MTTS4000,共包含 8192 個 MUSA 核心(VectorCore),以及 128個 Tensor Core,支持 FP64、FP32、TF32、FP16、BF16、INT8等主流精度算力,FP32 算力為 25TFLOPS。單卡支持 48GB 顯存和 768GB/s 的顯存帶寬。在卡間互聯方面,基于摩爾線程自研 MTLink1.0 技術和摩爾線程 KUAE 千卡模型訓練平臺,MTTS4000 能夠支持多卡互聯。此外,新產品具有多場景能力,可以提供先進的圖形渲染能力、視頻編解碼能力和 8KHDR 顯示能力,還能支持 AI 計算、圖形渲染、多媒體等綜合應用場景。26/34 2024
75、年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 六、產業鏈分析六、產業鏈分析 AI 芯片產業鏈上游為硅片、光刻膠、濺射靶材、電子特氣等半導體材料和單晶爐、PVD、光刻設備、檢測設備等設備;中游為 AI 芯片產品制造,包括設計、制造、封裝、測試等環節;下游為云計算、智慧醫療、智能穿戴、智能手機、智能機器人、無人駕駛等應用領域。1、半導體材料半導體材料 AI 算力依賴硬件驅動,帶動芯片需求增長從而帶動半導體材料增長算力依賴硬件驅動,帶動芯片需求增長從而帶動半導體材料增長。半導體材料作為芯片的基石,受益于人工智能的需求拉動,半導體材料市場規模呈現整體向上的態勢。半導體材料包括:硅片、
76、濺射靶材、CMP 拋光液和拋光墊、光刻膠、高純化學試劑、電子氣體、化合物半導體、封裝基板、引線框架、陶瓷封裝體、鍵合金屬線等。AI 芯片作為專門用于處理人工智能應用中的大量計算任務的模塊,其制造和構建離不開半導體材料作為基礎。近年來,隨著國內半導體材料廠商不斷提升半導體產品技術水平和研發能力,中國半導體材料國產化進程加速。中商產業研究院發布的2024-2029 年中國半導體材料專題研究及發展前景預測評估報告顯示,2023 年中國大陸半導體材料市場規模約為 979 億元。中商產業研究院分析師預測,中商產業研究院分析師預測,2024年中國大陸半導體材料市場規模將達年中國大陸半導體材料市場規模將達
77、1011 億元。億元。(1)硅片)硅片 硅片是生產集成電路、分立器件、傳感器等半導體產品的關鍵材料,是半導體產業鏈基礎性的一環。受益于通信、計算機、消費電子等應用領域需求帶動,我國半導體硅片市場規模不斷增長。中商產業研究院發布的2024-2029 全球與中國半導體硅片市場現狀及未來發展趨勢顯示,2022 年中國半導體硅片市場規模達到 138.28 億元,較上年增長 16.07%,2023 年約為 164.85 億元。中商產業研究院分析師預測,2024年中國半導體硅片市場規模將增至 189.37 億元。硅片環節重點企業包括有研新材、華天科有研新材、華天科技、晶盛機電、滬硅產業、中環股份、立昂微技
78、、晶盛機電、滬硅產業、中環股份、立昂微等。27/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告(2)光刻膠)光刻膠 目前,隨著下游需求的逐漸擴大,我國光刻膠市場規模顯著增長。中商產業研究院發布的2024-2029全球及中國光刻膠和光刻膠輔助材料行業發展現狀調研及投資前景分析報告顯示,我國光刻膠 2022年市場規模約為 98.6 億元,同比增長 5.68%,2023 年約為 109.2 億元。中商產業研究院分析師預測,2024 年我國光刻膠市場規??蛇_ 114.4 億元。光刻膠重點企業包括大族激光、圣泉集團、安泰科技、容大族激光、圣泉集團、安泰科技、容大感光、廣信
79、材料、雅克科技、晶瑞電材、彤程新材大感光、廣信材料、雅克科技、晶瑞電材、彤程新材等。(3)濺射靶材)濺射靶材 濺射靶材是指一種用濺射沉積或薄膜沉積技術制造薄膜的材料。中商產業研究院發布的2024-2029 中國靶材市場現狀及未來發展趨勢顯示,2022 年中國靶材市場規模達到 395億元,同比增長 6.76%,2023 年市場規模約為 431 億元。中商產業研究院分析師預測,2024年中國靶材行業市場規模將達到476 億元。濺射靶材重點企業包括阿石創、有研新材、江豐電子、新疆眾和、光智科技阿石創、有研新材、江豐電子、新疆眾和、光智科技等。(4)電子特氣)電子特氣 近年來,中國電子特種氣體市場規模
80、持續增長。中商產業研究院發布的2024-2029 年中國電子特氣專題研究及發展前景預測評估報告顯示,2022 年電子特種氣體市場規模 220.8 億元,同比增長 12.77%。我國電子特氣市場規模的增長率明顯高于全球電子特氣增長率,未來有較大發展空間。中商產業研究院分析師預測,2024年中國電子特氣市場規模將超過 250 億元。2、半導體設備、半導體設備 半導體設備包含單晶爐、光刻設備、半導體設備包含單晶爐、光刻設備、PVD 設備及檢測設備等。設備及檢測設備等。單晶爐重點企業包括晶盛機電、華盛天晶盛機電、華盛天龍、北方華創、晶科能源、晶澳科技、捷佳偉創龍、北方華創、晶科能源、晶澳科技、捷佳偉創
81、等;光刻設備重點企業包括上海微電子、中電科上海微電子、中電科 45 所、所、沈陽芯源、芯碁微裝、電科數字、旭光電子沈陽芯源、芯碁微裝、電科數字、旭光電子等。半導體設備是 AI 芯片的基礎和基石,為 AI 芯片的制造提供了必要的工藝和技術支持。中商產業研究院發布的2024-2029年中國半導體設備行業市場供需趨勢及發展戰略研究預測報告顯示,2023 年中國半導體設備市場規模約為 2190.24 億元,占全球市場份額的 35%。中商產業研究院分析師預測,中商產業研究院分析師預測,2024 年中國半導體設備市場規模將達年中國半導體設備市場規模將達 2300 億元。億元。3、HBM AI 服務器存儲容
82、量倍增,帶動存儲器需求成長。服務器存儲容量倍增,帶動存儲器需求成長。據 TrendForce,AI 服務器需要配置更多 DRAM、SSD 和 HBM 等大容量存儲以應對日益復雜的大模型所帶來的海量數據。當前普通服務器 DRAM 普遍配置約為 500至 600GB,而 AI 服務器 DRAM 配置可達 1.2 至 1.7TB,是普通服務器的二到三倍。此外,相較于一般服務器而言,AI 服務器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8張計算,HBM 用量約為 320640GB。未來在 AI 模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動 Ser
83、verDRAM、SSD 以及 HBM的需求成長。28/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 HBM 解決解決 GPU 內存危機內存危機。處理器的性能按照摩爾定律規劃的路線不斷飆升,內存所使用的 DRAM卻從工藝演進中獲益很少,性能提升速度遠慢于處理器速度,造成了 DRAM 的性能成為制約計算機性能的一個重要瓶頸,即所謂的“內存墻”。HBM成為增加存儲器帶寬的路徑之一,以解決大數據時代下的“內存墻”問題。HBM(High Bandwidth Memory)即高帶寬存儲器,按照 JEDEC 的分類,HBM 屬于 GDDR 內存的一種,其通過使用先進的封裝方
84、法(如 TSV 硅通孔技術)垂直堆疊多個 DRAM,并與 GPU 封裝在一起。HBM 主要優勢是在高帶寬和低功耗領域,應用場景以配合并行計算的 GPU 和 ASIC 芯片為主。主流用于大模型訓練的主流用于大模型訓練的 AI 芯片,其顯存方案跟隨芯片,其顯存方案跟隨 HBM 技術的提升而演進,向更高帶寬的方向發展。技術的提升而演進,向更高帶寬的方向發展。英偉達的 A100 和 AMD MI200均采用 HBM2e 方案,而英偉達最新一代的 H100芯片則采用 SK海力士的 HBM3 方案,AMD 發布的 MI300X采用 192GB 的 HBM3 內存方案,帶寬最高可達 H100 的 1.6倍。
85、29/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 AI 創造純增量市場,創造純增量市場,HBM 需求量年增近六成。需求量年增近六成。目前高端 AI 服務器 GPU 搭載 HBM已成主流,TrendForce 預估 2023 年全球 HBM需求量將年增近六成,來到 2.9 億 GB,2024 年將再成長三成。根據 Mordor Intelligence,2020 年 HBM市場價值為 10.68 億美元,預計到 2026 年將達到 40.89 億美元,在 2021-2026 年預測期間的復合年增長率為 25.4%。HBM 頭部企業 SK 海力士在 2023 年
86、 7 月表示,目前其 HBM 的銷量占比還不足營收 1%,但 2023 年銷售額占比有望成長到 10%,同時預計在 2024 年應用于 AI 服務器的 HBM 和 DDR5 的銷量將翻一番。2023 年 10 月,SK 海力士表示,已經在 2023 年出售了明年 HBM3 和 HBM3E 的所有產量。HBM 價值量顯著敢于標準價值量顯著敢于標準 DRAM,成為新利潤增長點。,成為新利潤增長點。芯片咨詢公司 SemiAnalysis 表示,HBM的價格大約是標準 DRAM 芯片的五倍,為制造商帶來了更大的總利潤。目前,HBM 占全球內存收入的比例不到 5%,但 SemiAnalysis 預計到
87、2026 年將占到總收入的 20%以上。SK海力士首席財務官KimWoo-hyun 在 4 月份的財報電話會議上表示預計 2023 年 HBM 收入將同比增長 50%以上。韓系存儲供應商積極擴產,主導韓系存儲供應商積極擴產,主導 HBM 市場。市場。根據 TrendForce,2022 年三大原廠 HBM 市占率分別為SK 海力士約 50%、三星約 40%、美光約 10%。高階深度學習 AIGPU 的規格也在刺激 HBM 產品更迭,2023 下半年伴隨 NVIDIA H100與 AMD MI300 的搭載,三大原廠也已規劃相對應規格 HBM3 的量產。SK 海力士作為目前唯一量產新世代 HBM
88、3 產品的供應商,其整體市占率有望提升至 53%,而三星、美光則預計陸續在 2023 年底至 2024 年量產,市占率分別為 38%及 9%?;诟髟瓘S積極擴產的策略,HBM 供需比有望獲改善,預估將從 2023 年的-2.4%,轉為 0.6%。4、先進封裝先進封裝 異構集成,即橫向和縱向連接多個半導體,可將更多的晶體管裝在一個更小的半導體上,準確地說是在更小的半導體封裝內,從而提供比其各部分之和更大的功用。CPU+GPU是人工智能異構計算的主要組 30/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 合形式,英偉達的 GraceHopper 超級芯片通過異構集
89、成 CPU、GPU以及存儲器,實現芯片更高帶寬的互連,能夠承擔更大的數據集、更復雜的模型和新的工作負載。先進封裝成為突破先進封裝成為突破“摩爾定律摩爾定律”局限的技術。局限的技術。先進封裝技術充當著半導體器件與系統之間的橋梁,是實現異構集成的關鍵技術,因此,這種連接方法變得越來越重要。先進封裝技術本身已成為一種系統解決方案,半導體頭部設計、制造商均通過此方法,在摩爾定律放緩的時代,從系統層面繼續提升芯片性能。自自 2020 年開始,先進封裝進入技術融合期,成為關鍵的系統級解決方案。年開始,先進封裝進入技術融合期,成為關鍵的系統級解決方案。不僅需要借助多項技術將各類芯片集成到同一封裝內,還需要在
90、整合系統時將多個部分連接至同一模塊。AI 計算芯片融合了多項先進封裝技術,HBM 應用 TSV堆疊技術獲得超高帶寬,而為了將 HBM 和 GPU 集成,CoWoS 封裝技術被深度開發。因此,封裝技術將成為提供整體系統解決方案的重要手段。海力士判斷,未來各公司將依賴封裝技術助力其成為半導體行業的領軍者。隨著封裝技術的發展,近十年中,重新分配層(RDL)、倒片封裝(FlipChip)和硅穿孔(TSV)等封裝技術得到了積極廣泛的應用,在硅晶圓或芯片堆疊結構晶圓中進行工藝處理,大幅提高了產品的性能和容量。SK 海力士憑借業界領先的 TSV 堆疊技術引領了市場發展,這其中包括 HBM封裝存儲器解決方案,
91、以及用于服務器的高密度存儲器(HDM)三維堆疊技術。同時,海力士持續迭代封裝技術,研發了批量回流模制底部填充、混合鍵合、扇出型晶圓級封裝等技術,以進一步提升了 HBM 的堆疊層數。31/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 CoWoS 封裝技術是目前集成 HBM 與 CPU/GPU 處理器的主流方案。在算力芯片性能暴增的時代下,先進封裝產業鏈逐漸的進入高速發展時期。臺積電封裝產能緊缺。臺積電主導全球 CoWoS 封裝市場,且正在擴大產能,以滿足客戶,尤其是 AI 芯片領域的需求。英偉達等大客戶增加了對 CoWoS 封裝的訂單量,AMD、亞馬遜等其他大廠
92、也出現了緊急訂單。據 IDC 預測,全球 CoWoS 供需缺口約 20%,2024 年臺積電的 CoWos 封裝產能將較 2023 年提升一倍,2.5D/3D 先進封裝市場規模在 2023-2028年將以 22%的 CAGR 高速增長。先進封裝生態涵蓋從芯片設計、制造、材料的供應商。包括高性能算力芯片巨頭英特爾、英偉達、英特爾、英偉達、AMD;存儲芯片供應商三星、海力士、鎂光三星、海力士、鎂光;先進封裝工藝服務商臺積電、英特爾、日月光臺積電、英特爾、日月光;IC載板供應商欣興電子、英特爾、欣興電子、英特爾、AT&S 等。我國本土供應商在先進封裝產業鏈的參與度較低,在逆全球化的背景下,除了實現高
93、階芯片制程的自主可控,先進封裝的國產化也同樣迫在眉睫。七、七、國內相關公司國內相關公司 1、香農芯創:深度布局存儲產業香農芯創:深度布局存儲產業 32/34 2024 年年 6月月 24 日日 行業行業|深度深度|研究報告研究報告 擁抱頭部原廠資源,投資半導體產業鏈協同賦能。香農芯創目前擁有兩大業務板塊:電子元器件分銷平臺,和半導體產業鏈協同賦能。公司第一大供應商為 SK 海力士,并獲得了 SK 海力士、MTK 等原廠的授權代理權,形成了代理原廠線優勢。公司投資半導體設計、封測、設備、應用等各個環節領軍企業,推動半導體產業鏈生態發展和升級。與海力士合作拓展 SSD 業務。公司公告與深圳大普微電
94、子、江蘇疌泉君海榮芯投資等合作方共同出資設立深圳市海普存儲科技有限公司。新公司擬開展 SSD 存儲產品的設計、生產和銷售業務,當前我國企業級 SSD 市場國產化率較低,而 2022-2026 年我國企業級 SSD 市場規模將以 23.7%的年均復合增速成長,市場空間廣闊。新公司的成立,助力打破技術壟斷,推進企業級 SSD 國產替代進程。此外,投資方江蘇疌泉君海榮芯投資的第一大股東為 SK海力士(無錫)投資公司,利益共享或有技術賦能。2、雅兊科技:海力士重要供應商雅兊科技:海力士重要供應商 雅克科技是平臺型先進材料公司,形成了以電子材料為核心,LNG 保溫板材為補充的戰略模式。公司收購海外優質資
95、產彎道超車,并打入海外核心客戶供應鏈,技術實力國內領先。公司半導體材料包括前驅體、光刻膠及輔助化學品、電子特氣、硅微粉等,客戶包括臺積電、三星電子、Intel、中芯國際、海力士、京東方等業國際頭部企業。2023 年 9 月,公司發布對外投資公告,子公司江蘇雅克半導體以約 2.7 億元的價格收購 SKenpulse 公司持有的 SKC-ENF75.1%的股權,SKC-ENF 持有愛思易(江蘇)公司及愛思開希(南通)公司 100%的股權,主要產品為半導體光刻膠輔助化學品,包括顯影液、稀釋劑、蝕刻液等,目前是國內唯一擁有相關技術的本土供應商,產品可以滿足對應全品類光刻膠匹配使用。公司橫向布局濕電子化
96、學品,拓展業務疆界,并增強主業的規模效應。3、興森科技:引領興森科技:引領 IC 載板國產替代載板國產替代 興森科技專注于印制電路板產業,圍繞傳統 PCB 業務和半導體業務兩大主線開展。PCB 業務聚焦于樣板快件及批量板的研發、設計、生產、銷售和表面貼裝;半導體業務聚焦于 IC 封裝基板(含 CSP 封裝基板和 FCBGA 封裝基板)及半導體測試板。興森科技對 IC 載板產能投資全球領先。據 Yole,IC 載板全球市場規模 2022 年達到 151 億美元,2028年將增長至 289億美元,年均增速 11%。但市場主要由海外公司主導,國內正在積極擴充產能,大陸廠商對 IC 載板的投資額占比達
97、全球的 46%,興森科技(fastprint)的資本投入在 2021-2022 年間排名全球第四。4、華海誠科:環氧塑封領先企業華海誠科:環氧塑封領先企業 華海誠科主要產品包括環氧塑封料與電子膠黏劑,廣泛應用于半導體封裝、板級組裝等應用場景。其中,環氧塑封料與芯片級電子膠黏劑與半導體封裝技術的發展息息相關,是保證芯片功能穩定實現的關鍵材料?,F建有先進的環氧模塑料中試線 1 條、大生產線 5 條。目前公司的研發能力和生產能力在國內環氧塑封料行業排名前列。芯片級底部填充膠主要應用于 FC(FlipChip)封裝領域,根據 Yole,FC 在先進封裝的市場占比約為80%左右,是目前最具代表性的先進封
98、裝技術之一,具體類型包括 FC-BGA、FC-SiP 等先進封裝技術,33/34 2024 年年 6月月 24 日日行業行業|深度深度|研究報告研究報告 目前該市場仍主要為日本納美仕、日立化成等外資廠商壟斷,國內芯片級底部填充膠目前主要尚處于實驗室階段。公司 FC 底填膠已通過星科金朋的考核驗證,在內資廠商中處于領先水平。5、艾森股份:先進封裝材料平臺、艾森股份:先進封裝材料平臺艾森股份圍繞電子電鍍、光刻兩個半導體制造及封裝過程中的關鍵工藝環節,形成了電鍍液及配套試劑、光刻膠及配套試劑兩大產品板塊布局。公司主要產品以傳統封裝材料為主,先進封裝材料逐步放量。公司先進封裝用電鍍銅基液(高純硫酸銅)
99、已在華天科技正式供應;先進封裝用電鍍錫銀添加劑已通過長電科技的認證,尚待終端客戶認證通過;先進封裝用電鍍銅添加劑正處于研發及認證階段。先進封裝光刻方面,公司以光刻膠配套試劑為切入點,成功實現附著力促進劑、顯影液、去除劑、蝕刻液等產品在下游封裝廠商的規?;?。同時,公司積極開展光刻膠的研發,目前,公司自研先進封裝用 g/i 線負性光刻膠已通過長電科技、華天科技認證并實現批量供應。八、未來展望八、未來展望 1、市場預測、市場預測近年來,我國 AI 芯片受到廣泛關注,不斷涌現出新的生產設計商,行業市場規模不斷增長。中商產業研究院發布的2024-2029年中國人工智能芯片行業市場發展監測及投資潛力預
100、測報告顯示,2023年中國 AI 芯片市場規模達到 1206 億元,同比增長 41.9%。中商產業研究院分析師預測,2024 年中國AI 芯片市場規模將增長至 1412 億元。2、AI 芯片應用領域不斷拓展芯片應用領域不斷拓展34/34 2024 年年 6月月 24 日日行業行業|深度深度|研究報告研究報告 隨著人們對生活品質要求的提高,AI 芯片已應用于眾多前沿及快速發展的下游領域,AI 芯片應用的不斷拓展。隨著數字化時代的到來,我國產業也紛紛開始數字化轉型,帶動 AI 芯片需求的增長,以支持高效處理海量數據,從而推動 AI 芯片行業的快速發展和持續創新??梢灶A計,在未來我國數字化轉型持續推
101、進的背景下,AI 芯片將存在廣闊的應用市場,需求不斷增加,推動行業快速發展階段。3、中期維度或將改變行業格局、中期維度或將改變行業格局如上文所述,全球范圍內大型互聯網企業和科技公司或將紛紛加速推進自研 AI 芯片的發展,其背后一方面是基于 AI 高速發展背景下成本優化的考慮,同時也一定程度上擺脫對上游的單一供應依賴,判斷隨著全球范圍內在 AI 算力方向上投入的加大,該趨勢有望進一步強化。而國內由于供應鏈安全問題更加嚴重,在算力國產化之外,AI 大廠自研 AI 芯片更是逐步提升其更高的戰略位置,一方面從供應維度或將改變當前 AI 芯片格局,另一方面作為重要的需求方自產自供模式下需求的改變也值得關
102、注,能夠認為會影響到產業鏈上下游相關的各個環節,包括芯片設計、生產、服務器代工等等,其中國內服務器廠商在大廠自研 AI 芯片趨勢下,高端 AI 芯片供給的改變帶來對應產業鏈供應商受益。九、參考研報九、參考研報 1.中金公司-科技硬件行業智算未來系列七:國產云端 AI 芯片破局,路在何方?2.國泰君安-計算機行業:重視 AI 芯片配套的軟件生態3.華福證券-服務器行業深度報告:AI 和“東數西算”雙輪驅動,服務器再起航4.中航證券-科技行業專題研究:AI 智算時代已至,算力芯片加速升級5.光大證券-電子行業 2024 年投資策略:中華有為,芯芯向榮6.嘉世咨詢-2023AI 芯片行業發展簡析報告
103、7.海通證券-電子行業:邊緣 AI 芯片蓄勢待發,行業龍頭助力場景落地8.華源證券-海外科技行業周報:微軟領銜 AIPC新品推出,加密現貨 ETF再添新軍9.浙商證券-算力行業深度報告:海外科技啟示錄,英偉達(1),超級工廠是怎樣煉成的10.長江證券-軟件與服務行業算力系列之大廠 AI 芯片自研:長期降本+供應安全,自研 AI 芯片加速11.信達證券-半導體行業專題研究:AIGC 推動 AI 產業化由軟件向硬件切換,半導體+AI 生態逐漸清晰12.國海證券-計算機行業 AI 算力月度跟蹤(202403):NVIDIA B200 再創算力奇跡,液冷、光模塊持續革新13.方正證券-曙光數創-872808-公司深度報告:數據中心基礎設施液冷行業領先,持續受益于 AI 等算力擴張14.長城證券-通信行業本周專題:我國 AI 芯片加速發展,車聯網加速落地,持續看好相關產業鏈投資機會免責聲明:以上內容僅供學習交流,不構成投資建議。