《半導體行業深度報告:AI算力芯片——AI時代的引擎-250403(48頁).pdf》由會員分享,可在線閱讀,更多相關《半導體行業深度報告:AI算力芯片——AI時代的引擎-250403(48頁).pdf(48頁珍藏版)》請在三個皮匠報告上搜索。
1、第 1 頁/共 48頁 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 半導體半導體 分析師:鄒臣分析師:鄒臣 登記編碼:登記編碼:S0730523100001 021-50581991 AI 算力芯片算力芯片AI 時代的引擎時代的引擎 半導體行業深度半導體行業深度報告報告 證券研究報告證券研究報告-行業深度行業深度報告報告 強于大市強于大市(維持維持)半導體半導體相對滬深相對滬深 300 指數表現指數表現 資料來源:中原證券研究所,聚源 相關報告相關報告 半導體行業深度分析:AI 算力芯片是“AI時代的引擎”,河南省著力布局 2025-03-20 半導體行業月報:國內 RISC-
2、V 生態加速發展,存儲器價格有望逐步回升 2025-03-10 半導體行業月報:美國半導體出口管制進一步升級,DeepSeek 熱潮有望推動端側 AI發展 2025-02-10 聯系人:聯系人:李智李智 電話:電話:0371-65585629 地址:地址:鄭州鄭東新區商務外環路10號18樓 地址:地址:上海浦東新區世紀大道1788號T1座22樓 發布日期:2025 年 04 月 03 日 投資要點:投資要點:AI 算力芯片是“算力芯片是“AI 時代的引擎”時代的引擎”。ChatGPT 熱潮引發全球科技企業加速布局 AI 大模型,谷歌、Meta、百度、阿里巴巴、華為、DeepSeek 等隨后相繼
3、推出大模型產品,并持續迭代升級;北美四大云廠商受益于 AI 對核心業務的推動,持續加大資本開支,國內三大互聯網廠商不斷提升資本開支,國內智算中心加速建設,推動算力需求高速成長。人工智能進入算力新時代,全球算力規模高速增長,根據 IDC 的預測,預計全球算力規模將從 2023 年的1397 EFLOPS 增長至 2030 年的 16 ZFLOPS,預計 2023-2030年復合增速達 50%。AI 服務器是支持生成式 AI 應用的核心基礎設施,AI 算力芯片為 AI 服務器提供算力的底層支撐,是算力的基石。AI 算力芯片作為“AI 時代的引擎”,有望暢享 AI 算力需求爆發浪潮,并推動 AI 技
4、術的快速發展和廣泛應用。AI 算力芯片以算力芯片以 GPU 為主流為主流,定制,定制 ASIC 芯片市場高速成長芯片市場高速成長。AI算力芯片按應用場景可分為云端、邊緣端、終端 AI 算力芯片,本文主要針對于云端 AI 算力芯片。根據芯片的設計方法及應用,AI算力芯片可分為通用型 AI 芯片和專用型 AI 芯片,當前 AI 算力芯片以 GPU 為主流。隨著 AI 算力規模的快速增長將催生更大的GPU 芯片需求,根據 Statista 的數據,2023 年全球 GPU 市場規模為 436 億美元,預計 2029 年市場規模將達到 2742 億美元,預計 2024-2029 年復合增速達 33.2
5、%。根據 TechInsights 的數據,2023 年英偉達在數據中心 GPU 出貨量中占據 98%的市場份額,主導全球 GPU 市場。GPU 生態體系復雜,建設周期長、難度大,GPU 生態體系建立極高的行業壁壘。AI ASIC 是一種專為人工智能應用設計的定制集成電路,具有高性能、低功耗、定制化、低成本等特點。由于英偉達壟斷全球數據中心 GPU 市場,因成本、差異化競爭、創新性、供應鏈多元化等原因,云廠商等大廠自研芯片趨勢明顯,推動數據中心定制 ASIC 芯片市場高速成長,預計增速快于通用 AI 算力芯片。根據 Marvell 的數據,2023年數據中心定制 ASIC 芯片市場規模約為 6
6、6 億美元,預計 2028年市場規模將達到 429 億美元,預計 2023-2028 年復合增速達45%。近年來美國不斷加大對高端 GPU 的出口管制,國產 AI 算力芯片廠商迎來黃金發展期。DeepSeek 有望推動國產有望推動國產 AI 算力芯片加速發展算力芯片加速發展。DeepSeek 通過技術創新實現大模型訓練及推理極高性價比,DeepSeek 模型的技術創新主要體現在采用混合專家(MoE)架構、多頭潛在注意力機制(MLA)、FP8 混合精度訓練技術、多 Token 預測(MTP)-12%-1%10%21%32%44%55%66%2024.042024.082024.112025.03
7、半導體滬深300第 2 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 及蒸餾技術等。DeepSeek-V3 性能對標 GPT-4o,DeepSeek-R1性能對標 OpenAI o1;根據 DeepSeek 在 2025 年 1 月 20 日公布的數據,DeepSeek-R1 API 調用成本不到 OpenAl o1 的 5%。DeepSeek-R1 實現模型推理極高性價比,蒸餾技術使小模型也具有強大的推理能力及低成本,將助力 AI 應用大規模落地,并有望推動推理需求加速釋放。IDC 預計 2028 年中國 AI 服務器用于推理工作負載占比將達到 73%,
8、由于推理服務器占比遠高于訓練服務器,用于推理的 AI 算力芯片國產替代空間更為廣闊。國產算力生態鏈已全面適配 DeepSeek,DeepSeek 通過技術創新提升 AI算力芯片的效率,進而加快國產 AI 算力芯片自主可控的進程,國產 AI 算力芯片廠商有望加速發展,并持續提升市場份額。投資建議。投資建議。云端 AI 算力芯片建議關注寒武紀-U(688256)、海光信息(688041),定制 ASIC 芯片建議關注芯原股份(688521)、翱捷科技-U(688220),先進制造建議關注中芯國際(688981),先進封裝建議關注長電科技(600584)風險提示:風險提示:國際地緣政治沖突加劇風險,
9、下游需求不及預期風險,市場競爭加劇風險,新產品研發進展不及預期風險,國產替代進展不及預期風險。第 3 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 內容目錄內容目錄 1.AI 算力芯片是“算力芯片是“AI 時代的引擎”時代的引擎”.6 1.1.大模型持續迭代,推動全球算力需求高速成長.6 1.2.AI 算力芯片是算力的基石.9 2.AI 算力芯片以算力芯片以 GPU 為主流,定制為主流,定制 ASIC 芯片市場高速成長芯片市場高速成長.10 2.1.AI 算力芯片可應用于云端、邊緣端、終端,當前以 GPU 為主流.10 2.2.英偉達主導全球 GPU 市場
10、,GPU 生態體系建立極高的行業壁壘.13 2.3.云廠商等大廠自研芯片趨勢明顯,推動定制 ASIC 芯片市場高速成長.19 2.4.美國不斷加大對高端 AI 算力芯片出口管制,國產廠商迎來黃金發展期.23 3.DeepSeek 有望推動國產有望推動國產 AI 算力芯片加速發展算力芯片加速發展.25 4.投資建議投資建議.31 4.1.寒武紀-U.32 4.2.海光信息.35 4.3.芯原股份.37 4.4.翱捷科技-U.39 4.5.中芯國際.42 4.6.長電科技.44 5.風險提示風險提示.47 圖表目錄圖表目錄 圖 1:全球部分科技企業發布大模型產品情況.6 圖 2:GPT-4.5 與
11、人類測試者的對比評估情況.6 圖 3:GPT-4o SimpleQA 性能對比情況.6 圖 4:o3 在 SWE-benchVerified、Codeforces 測試中表現優于 o1.7 圖 5:o3 在 GPQA 測試中大幅優于 o1.7 圖 6:2012-2023 年各領域重要的機器學習模型訓練算力需求情況.7 圖 7:2020-2024 年北美四大云廠商資本開支情況(億美元).8 圖 8:2021-2024 年國內三大互聯網廠商資本開支情況(百萬元).8 圖 9:2019-2030 年全球算力規模情況及預測(EFLOPS).9 圖 10:2019-2026 年中國智能算力市場規模預測.
12、9 圖 11:人工智能系統產業鏈結構圖.9 圖 12:AI 服務器內部結構圖.9 圖 13:2023-2028 年全球生成式人工智能和非生成式人工智能服務器市場規模及預測.10 圖 14:2024-2028 年中國 AI 服務器市場規模及預測.10 圖 15:2018 年服務器成本構成情況.10 圖 16:CPU+GPU 異構計算系統方案框圖.10 圖 17:AI 處理的重心正在從云端向邊緣轉移.11 圖 18:英偉達 A100 GPU 內部架構圖.12 圖 19:谷歌 TPU 內部架構圖.12 圖 20:2024 年上半年中國 AI 芯片市場份額情況.12 圖 21:AI 算力芯片產業鏈結構
13、圖.13 圖 22:GPU 與 CPU 內部架構對比圖.13 圖 23:GPU 的計算架構.14 圖 24:GPU 的內存架構.14 圖 25:英偉達多 GPU 系統架構圖.15 第 4 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖 26:英偉達 NVLink 技術演進情況.15 圖 27:GPU 應用場景廣泛.16 圖 28:2023-2029 全球 GPU 市場規模情況及預測(億美元).16 圖 29:2023 年全球數據中心 GPU 市場競爭格局情況.17 圖 30:24Q4 全球 PC GPU 市場競爭格局情況.17 圖 31:英偉達數據中心平
14、臺 GPU 生態體系架構圖.17 圖 32:英偉達 CUDA 生態系統的組成.18 圖 33:英偉達 CUDA 加速計算解決方案.18 圖 34:Marvell 用于數據中心的 ASIC 解決方案.19 圖 35:博通 AI ASIC 內部架構圖.19 圖 36:華為昇騰 AI 生態系統架構圖.20 圖 37:2023-2028 年數據中心 AI 算力芯片市場規模及預測情況.20 圖 38:2023-2028 年數據中心定制 ASIC 芯片市場規模及預測情況.20 圖 39:博通累積的定制芯片設計經歷.21 圖 40:博通定制技術能力與 IP 核情況.21 圖 41:TPU 內部架構圖.21
15、圖 42:在 TPU v5e 和 v6 Trillium 上運行的 steptime 的 Google 基準測試情況.22 圖 43:在 TPU v5e 和 v6 Trillium 上進行 SDXL 基準測試情況.22 圖 44:谷歌 TPU 芯片通過 ICI 相互連接.23 圖 45:由 TPU v4 建立的算力集群示意圖.23 圖 46:昇騰計算系統架構框圖.25 圖 47:昇騰計算產業生態圖.25 圖 48:DeepSeek-V3 基本架構圖.26 圖 49:DeepSeek-V3 MTP 應用示意圖.26 圖 50:DeepSeek-V3 FP8 混合精度框架示意圖.27 圖 51:D
16、eepSeek-V3 多項評測成績對標 GPT-4o.27 圖 52:DeepSeek-V3 多項評測成績與其他大模型對比情況.27 圖 53:DeepSeek-R1-Zero 的思考時間持續提升以解決推理任務.28 圖 54:DeepSeek-R1-Zero、R1、蒸餾小模型的開發流程圖.28 圖 55:DeepSeek-R1 多項評測成績對標 OpenAI o1.28 圖 56:DeepSeek-R1 蒸餾 32B 和 70B 模型多項評測成績對標 OpenAI o1-mini.28 圖 57:DeepSeek-V3 模型性價比處于最優范圍.29 圖 58:DeepSeek-R1 與 Op
17、enAI o1 類推理模型 API 定價對比情況(2025 年 1 月 20 日).29 圖 59:2024-2028 年中國 AI 服務器工作負載預測情況.30 圖 60:寒武紀公司產品策略.32 圖 61:寒武紀基礎軟件系統平臺架構圖.32 圖 62:2023 年寒武紀產品結構情況.33 圖 63:寒武紀 2020-2024 年營業收入及增速情況.33 圖 64:寒武紀 2020-2024 年歸母凈利潤及增速情況.33 圖 65:寒武紀 2022-2024 年存貨情況(億元).34 圖 66:寒武紀 2022-2024 年預付款項情況(億元).34 圖 67:寒武紀核心技術框架結構圖.34
18、 圖 68:海光產品族.35 圖 69:海光高性能國產處理器已得到眾多 OEM 客戶支持.35 圖 70:海光信息 2020-2024 年營收及增速情況.35 第 5 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖 71:海光信息 2020-2024 年歸母凈利潤及增速情況.35 圖 72:海光信息 2020-2024 年毛利率情況.36 圖 73:海光信息 2020-2024 年凈利率情況.36 圖 74:海光 DCU 產品擁有完善軟件棧支持.36 圖 75:海光產品在大模型的適配與實踐.37 圖 76:芯原股份提供的主要服務情況.37 圖 77:芯原
19、股份 2020-2024 年營業收入情況.38 圖 78:芯原股份 2020-2024 年歸母凈利潤情況.38 圖 79:芯原股份 2020-2024 年毛利率情況.38 圖 80:芯原股份 2020-2024 年凈利率情況.38 圖 81:翱捷科技公司產品及服務應用領域.40 圖 82:翱捷科技 2020-2024 年營業收入情況.40 圖 83:翱捷科技 2020-2024 年歸母凈利潤情況.40 圖 84:翱捷科技 2020-2024 年毛利率情況.41 圖 85:翱捷科技 2020-2024 年凈利率情況.41 圖 86:中芯國際產品及服務情況.42 圖 87:中芯國際擁有豐富的產品平
20、臺.42 圖 88:中芯國際 2020-2024 年營業收入情況.43 圖 89:中芯國際 2020-2024 年歸母凈利潤情況.43 圖 90:中芯國際 2020-2024 年毛利率情況.43 圖 91:中芯國際 2020-2024 年凈利率情況.43 圖 92:中芯國際 2024 年下游應用領域占比情況.44 圖 93:中芯國際 2024 年晶圓銷售按尺寸占比情況.44 圖 94:中芯國際關鍵技術節點的量產時間.44 圖 95:長電科技生產及研發基地全球布局.45 圖 96:長電科技單季度營收及增速情況.45 圖 97:長電科技單季度歸母凈利潤及增速情況.45 圖 98:長電科技單季度毛利
21、率和凈利率情況.46 圖 99:長電科技 24H1 下游應用領域占比情況.46 圖 100:長電科技 XDFOI Chiplet 解決方案.46 表 1:云端、邊緣端、終端應用場景對 AI 算力芯片的算力需求情況.11 表 2:GPU 硬件性能評價參數.14 表 3:英偉達 GeForce 系列 GPU 硬件性能參數對比情況.15 表 4:AI ASIC 與 GPU 性能參數對比情況.19 表 5:谷歌 TPU 歷代產品性能參數情況.22 表 6:近年美國對 AI 算力芯片相關制裁政策情況.23 表 7:部分國產 AI 算力芯片技術指標與國際主流產品對比情況.24 表 8:官宣支持 DeepS
22、eek 模型的國產 AI 芯片企業動態.30 第 6 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 1.AI 算力芯片是“算力芯片是“AI 時代的引擎”時代的引擎”1.1.大模型持續迭代,推動全球算力需求高速成長大模型持續迭代,推動全球算力需求高速成長 ChatGPT 熱潮引發全球科技熱潮引發全球科技企業企業加速加速迭代迭代 AI 大模型大模型。ChatGPT 是由美國公司 OpenAI開發、在 2022 年 11 月發布上線的人工智能對話機器人,ChatGPT 標志著自然語言處理和對話 AI 領域的一大步。ChatGPT 上線兩個月后月活躍用戶數突破 1
23、 億,是歷史上用戶增長速度最快的消費級應用程序。ChatGPT 熱潮引發全球科技企業加速布局,谷歌、Meta、百度、阿里巴巴、華為、DeepSeek 等科技企業隨后相繼推出 AI 大模型產品,并持續迭代升級。圖圖 1:全球部分科技企業發布大模型產品情況全球部分科技企業發布大模型產品情況 資料來源:各公司官網,中原證券研究所 GPT-4.5 帶來帶來更自然的更自然的交互體驗交互體驗。2025 年 2 月 27 日,OpenAI 正式發布 AI 大模型 GPT-4.5。作為 OpenAI 迄今為止規模最大、知識最豐富的模型,GPT-4.5 在 GPT-4o 的基礎上進一步擴展了預訓練,與專注于科學
24、、技術、工程和數學(STEM)領域的其他模型不同,GPT-4.5 更全面、更通用。在與人類測試者的對比評估中,GPT-4.5 相較于 GPT-4o 的勝率(人類偏好測試)更高,包括但不限于創造性智能(56.8%)、專業問題(63.2%)以及日常問題(57.0%);GPT-4.5 帶來更自然、更溫暖、更符合人類的交流習慣。GPT-4.5 的知識面更廣,對用戶意圖的理解更精準,情緒智能也有所提升,因此特別適用于寫作、編程和解決實際問題,同時減少了幻覺現象。圖圖 2:GPT-4.5 與人類測試者的對比評估與人類測試者的對比評估情況情況 圖圖 3:GPT-4o SimpleQA 性能對比性能對比情況情
25、況 資料來源:OpenAI 官網,騰訊,中原證券研究所 資料來源:OpenAI 官網,騰訊,中原證券研究所 第 7 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 OpenAI o3 進一步提升復雜推理能力進一步提升復雜推理能力。2024 年 12 月 20 日,OpenAI 發布全新推理大模型 o3,o3 模型在多個標準測試中的表現均優于 o1,進一步提升復雜推理能力,在一些條件下接近通用人工智能(AGI)。在軟件基準測試(SWE-benchVerified)中,o3 的準確率達到了 71.7%,相較 o1 提升超過 20%;在編程競賽(Codeforce
26、s)中,o3 的評分達到 2727,接近 OpenAI 頂尖程序員水平;而在數學競賽(AIME)中,o3 的準確率高達 96.7%,遠超 o1的 83.3%;在博士生級別問題測試集(GPQA)中,o3 達到 87.7 分,遠超人類選手的程度;在 ARC-AGI 測試中,o3 首次突破了人類水平的門檻,達到 87.5%。圖圖 4:o3 在在 SWE-benchVerified、Codeforces 測試中測試中表現表現優于優于 o1 圖圖 5:o3 在在 GPQA 測試中大幅優于測試中大幅優于 o1 資料來源:OpenAI 官網,騰訊,中原證券研究所 資料來源:OpenAI 官網,騰訊,中原證券
27、研究所 大模型持續迭代大模型持續迭代,推動算力需求高速推動算力需求高速成長成長。Scaling law 推動大模型持續迭代,根據Epoch AI 的數據,2012-2023 年大模型訓練的算力需求增長近億倍,目前仍然在大模型推動算力需求高速成長的趨勢中。圖圖 6:2012-2023 年各領域重要的機器學習模型訓練算力需求情況年各領域重要的機器學習模型訓練算力需求情況 資料來源:Epoch AI,網易,中原證券研究所 北美四大云廠商受益于北美四大云廠商受益于 AI 對核心業務的推動對核心業務的推動,持續加大資本開支持續加大資本開支。受益于 AI 對于公司核心業務的推動,北美四大云廠商谷歌、微軟、
28、Meta、亞馬遜 2023 年開始持續加大資本開支,2024 年四季度四大云廠商的資本開支合計為 706 億美元,同比增長 69%,環比增長23%。目前北美四大云廠商的資本開支增長主要用于 AI 基礎設施的投資,并從 AI 投資中獲得了積極回報,預計 2025 年仍有望繼續大幅增加資本開支。第 8 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 7:2020-2024 年北美四大云廠商資本開支情況(億美元)年北美四大云廠商資本開支情況(億美元)資料來源:各公司公告,Wind,中原證券研究所 國內三大互聯網廠商不斷提升資本開支,國內智算中心加速建設國內三
29、大互聯網廠商不斷提升資本開支,國內智算中心加速建設。國內三大互聯網廠商阿里巴巴、百度、騰訊 2023 年也開始不斷加大資本開支,2024 年四季度三大互聯網廠商的資本開支合計為 720 億元,同比增長 259%,環比增長 99%,預計 2025 年國內三大互聯網廠商將繼續加大用于 AI 基礎設施建設的資本開支。根據中國電信研究院發布的智算產業發展研究報告(2024)的數據,截至 2024 年 6 月,中國已建和正在建設的智算中心超 250 個;目前各級政府、運營商、互聯網企業等積極建設智算中心,以滿足國內日益增長的算力需求。圖圖 8:2021-2024 年國內三大互聯網廠商資本開支情況(百萬元
30、)年國內三大互聯網廠商資本開支情況(百萬元)資料來源:各公司公告,中原證券研究所 人工智能進入算力新時代人工智能進入算力新時代,全球算力規模高速增長全球算力規模高速增長。隨著人工智能的快速發展以及 AI 大模型帶來的算力需求爆發,算力已經成為推動數字經濟飛速發展的新引擎,人工智能進入算力新時代,全球算力規模呈現高速增長態勢。根據 IDC、Gartner、TOP500、中國信通院的預測,預計全球算力規模將從 2023 年的 1397 EFLOPS 增長至 2030 年的 16 ZFLOPS,預計2023-2030 年全球算力規模復合增速達 50%。根據 IDC 的數據,2024 年中國智能算力規
31、模為725.3 EFLOPS,預計 2028 年將達到 2781.9 EFLOPS,預計 2023-2028 年中國智能算力規模的復合增速為 46.2%。第 9 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 9:2019-2030 年全球算力規模情況及預測(年全球算力規模情況及預測(EFLOPS)圖圖 10:2019-2026 年中國智能算力市場規模預測年中國智能算力市場規模預測 資料來源:IDC,Gartner,TOP500,中國信通院,先進計算暨算力發展指數藍皮書(2024 年),中原證券研究所 資料來源:IDC,2025 年中國人工智能計算力發
32、展評估報告,中原證券研究所 1.2.AI 算力芯片是算力的基石算力芯片是算力的基石 AI 服務器是支撐服務器是支撐生成式生成式 AI 應用的核心基礎設施應用的核心基礎設施。人工智能產業鏈一般為三層結構,包括基礎層、技術層和應用層,其中基礎層是人工智能產業的基礎,為人工智能提供數據及算力支撐。服務器一般可分為通用服務器、云計算服務器、邊緣服務器、AI 服務器等類型,AI 服務器專為人工智能訓練和推理應用而設計。大模型興起和生成式 AI 應用顯著提升了對高性能計算資源的需求,AI 服務器是支撐這些復雜人工智能應用的核心基礎設施,AI 服務器的其核心器件包括 CPU、GPU、FPGA、NPU、存儲器
33、等芯片,以及 PCB、高速連接器等。圖圖 11:人工智能系統產業鏈結構圖人工智能系統產業鏈結構圖 圖圖 12:AI 服務器服務器內部內部結構圖結構圖 資料來源:電子工程世界,中原證券研究所 資料來源:McKinsey,中原證券研究所 大模型有望推動大模型有望推動 AI 服務器服務器出貨量高速出貨量高速成長成長。大模型帶來算力的巨量需求,有望進一步推動 AI 服務器市場的增長。根據 IDC 的數據,2024 年全球 AI 服務器市場規模預計為 1251 億美元,2025 年將增至 1587 億美元,2028 年有望達到 2227 億美元,2024-2028 年復合增速達 15.5%,其中生成式
34、AI 服務器占比將從 2025 年的 29.6%提升至 2028 年的 37.7%。IDC預計 2024 年中國 AI 服務器市場規模為 190 億美元,2025 年將達 259 億美元,同比增長36.2%,2028 年將達到 552 億美元,2024-2028 年復合增速達 30.6%。第 10 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 13:2023-2028 年年全球生成式人工智能和非生成式人工全球生成式人工智能和非生成式人工智能服務器市場規模智能服務器市場規模及及預測預測 圖圖 14:2024-2028 年年中國中國 AI 服務器市場服務
35、器市場規模及規模及預測預測 資料來源:IDC,2025 年中國人工智能計算力發展評估報告,中原證券研究所 資料來源:IDC,2025 年中國人工智能計算力發展評估報告,中原證券研究所 AI 算力芯片是算力的基石算力芯片是算力的基石。CPU+GPU 是目前 AI 服務器主流的異構計算系統方案,根據IDC 2018 年服務器成本構成的數據,推理型和機器學習型服務器中 CPU+GPU 成本占比達到50-82.6%,其中機器學習型服務器 GPU 成本占比達到 72.8%。AI 算力芯片具備強大的并行計算能力,能夠快速處理大規模數據和復雜的神經網絡模型,并實現人工智能訓練與推理任務;AI 算力芯片占 A
36、I 服務器成本主要部分,為 AI 服務器提供算力的底層支撐,是算力的基石。AI 算力芯片作為“AI 時代的引擎”,有望暢享 AI 算力需求爆發浪潮,并推動 AI 技術的快速發展和廣泛應用。圖圖 15:2018 年服務器成本構成情況年服務器成本構成情況 圖圖 16:CPU+GPU 異構計算系統方案異構計算系統方案框圖框圖 資料來源:IDC,智研咨詢,中原證券 資料來源:英偉達,中原證券 2.AI 算力芯片以算力芯片以 GPU 為主流,定制為主流,定制 ASIC 芯片市場高速成長芯片市場高速成長 2.1.AI 算力芯片可應用于云端、邊緣端、終端,當前以算力芯片可應用于云端、邊緣端、終端,當前以 G
37、PU 為主流為主流 混合混合 AI 是是 AI 的發展趨勢的發展趨勢。AI 訓練和推理受限于大型復雜模型而在云端部署,而 AI 推理的規模遠高于 AI 訓練,在云端進行推理的成本極高,將影響規?;瘮U展。隨著生成式 AI 的快速發展以及計算需求的日益增長,AI 處理必須分布在云端和終端進行,才能實現 AI 的規?;瘮U展并發揮其最大潛能?;旌?AI 指終端和云端協同工作,在適當的場景和時間下分配 AI 計算的工作負載,以提供更好的體驗,并高效利用資源;在一些場景下,計算將主要以終端為中第 11 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 心,在必要時向云端分
38、流任務;而在以云為中心的場景下,終端將根據自身能力,在可能的情況下從云端分擔一些 AI 工作負載。與僅在云端進行處理不同,混合 AI 架構在云端和邊緣終端之間分配并協調 AI 工作負載;云端和邊緣終端如智能手機、汽車、個人電腦和物聯網終端協同工作,能夠實現更強大、更高效且高度優化的 AI。圖圖 17:AI 處理的重心正在處理的重心正在從云端從云端向邊緣轉移向邊緣轉移 資料來源:高通,中原證券研究所 AI 算算力力芯片按應用場景可分為芯片按應用場景可分為云端云端、邊緣端邊緣端、終端終端 AI 算力算力芯片芯片。人工智能的各類應用場景,從云端溢出到邊緣端,或下沉到終端,都需要由 AI 算力芯片提供
39、計算能力支撐。云端、邊緣端、終端三種場景對于 AI 算力芯片的運算能力和功耗等特性有著不同要求,云端 AI 算力芯片承載處理海量數據和計算任務,需要高性能、高計算密度,對于算力要求最高;終端對低功耗、高能效有更高要求,通常對算力要求相對偏低;邊緣端對功耗、性能的要求通常介于終端與云端之間;本文主要針對于云端 AI 算力芯片。表表 1:云端、云端、邊緣端、邊緣端、終端終端應用場景對應用場景對 AI 算力芯片的算力芯片的算力需求情況算力需求情況 應用場景應用場景 芯片需求芯片需求 典型計算能力典型計算能力 典型功典型功耗耗 典型應用領域典型應用領域 云端 高性能、高計算密度、兼有推理和訓練任務、單
40、價高、硬件產品形態少 30TOPS 50 瓦 云計算數據中心、企業私有云等 邊緣端 對功耗、性能、尺寸的要求常介于終端與云端之間、推理任務為主、多用于插電設備、硬件產品形態相對較少 5TOPS 至30TOPS 4 瓦 至15 瓦 智能制造、智能家居、智能零售、智慧交通、智慧金融、智慧醫療、智能駕駛等領域 終端 低功耗、高能效、推理任務為主、成本敏感、硬件產品形態眾多 8TOPS 5 瓦 各類消費類電子、物聯網 產品 資料來源:寒武紀招股說明書,中原證券 根據芯片的設計方法及應用,根據芯片的設計方法及應用,AI 算力芯片可分為通用型算力芯片可分為通用型 AI 芯片和專用型芯片和專用型 AI 芯片
41、芯片。通用型 AI 芯片為實現通用任務設計的芯片,主要包括 CPU、GPU、FPGA 等;專用型 AI 芯片是專門針對人工智能領域設計的芯片,主要包括 TPU(Tensor Processing Unit)、NPU(Neural Network Processing Unit)、ASIC 等。在通用型 AI 芯片中,由于在計算架構和性能第 12 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 特點上的不同,CPU 適合處理邏輯復雜、順序性強的串行任務;GPU 是為圖形渲染和并行計算設計的處理器,具有大量的計算核心,適合處理大規模并行任務;FPGA 通過集成大
42、量的可重構邏輯單元陣列,可支持硬件架構的重構,從而靈活支持不同的人工智能模型。專用型 AI芯片是針對面向特定的、具體的、相對單一的人工智能應用專門設計的芯片,其架構和指令集針對人工智能領域中的各類算法和應用作了專門優化,具體實現方法為在架構層面對特定智能算法作硬化支持,可高效支持視覺、語音、自然語言處理和傳統機器學習等智能處理任務。圖圖 18:英偉達英偉達 A100 GPU 內部架構圖內部架構圖 圖圖 19:谷歌谷歌 TPU 內部架構圖內部架構圖 資料來源:英偉達,中原證券研究所 資料來源:半導體行業觀察,中原證券研究所 當前當前 AI 算力芯片以算力芯片以 GPU 為主流為主流,英偉達主導全
43、球,英偉達主導全球 AI 算力芯片市場算力芯片市場。根據的 IDC 數據,2024 上半年,中國 AI 加速芯片的市場規模達超過 90 萬張;從技術角度來看,GPU 卡占據80%的市場份額。根據 Precedence Research 數據,2022 年英偉達占據全球 AI 芯片市場份額超過 80%,其中英偉達占全球 AI 服務器加速芯片市場份額超過 95%。圖圖 20:2024 年上半年中國年上半年中國 AI 芯片市場份額情況芯片市場份額情況 資料來源:IDC,中原證券研究所 AI 算力芯片產業鏈算力芯片產業鏈包括包括人工智能算法、芯片設計、芯片制造及下游應用環節人工智能算法、芯片設計、芯片
44、制造及下游應用環節。人工智能芯片產業鏈上游主要是人工智能算法以及芯片設計工具,人工智能算法覆蓋廣泛,包括視覺算法、語音處理算法、自然語言處理算法以及各類機器學習方法(如深度學習等)。AI 算力芯片行業的核心為芯片設計和芯片制造,芯片設計工具廠商、晶圓代工廠商與封裝測試廠商為 AI算力芯片提供了研發工具和產業支撐。AI 算力芯片行業的下游應用場景主要包括云計算與數據中心、邊緣計算、消費類電子、智能制造、智能駕駛、智慧金融、智能教育等領域。第 13 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 21:AI 算力芯片算力芯片產業鏈產業鏈結構圖結構圖 資料來
45、源:寒武紀招股說明書,中原證券研究所 2.2.英偉達主導全球英偉達主導全球 GPU 市場,市場,GPU 生態體系建立極高的行業壁壘生態體系建立極高的行業壁壘 GPU(Graphics Processing Unit)即即圖形處理單元,圖形處理單元,是是計算機的圖形處理及并行計算計算機的圖形處理及并行計算的核心的核心。GPU 最初主要應用于加速圖形渲染,如 3D 渲染、圖像處理和視頻解碼等,是計算機顯卡的核心;隨著技術的發展,GPU 也被廣泛應用于通用計算領域,如人工智能、深度學習、科學計算、大數據處理等領域,用于通用計算的 GPU 被稱為 GPGPU(General-Purpose compu
46、ting on Graphics Processing Units),即通用 GPU。GPU 與與 CPU 在內部架構上有顯著差異,決定了它們各自的優勢領域在內部架構上有顯著差異,決定了它們各自的優勢領域。GPU 通過大量簡單核心和高帶寬內存架構,優化并行計算能力,適合處理大規模數據和高吞吐量任務;CPU通過少量高性能核心和復雜控制單元優化單線程性能,適合復雜任務和低延遲需求。圖圖 22:GPU 與與 CPU 內部架構對比圖內部架構對比圖 資料來源:英偉達,OneFlow,中原證券研究所 GPU 架構由流處理器(架構由流處理器(SM)、光柵操作單元、紋理單元、專用加速單元等多個關鍵組件)、光柵
47、操作單元、紋理單元、專用加速單元等多個關鍵組件組成,這些組件協同工作,以實現高效的通用計算和圖形渲染組成,這些組件協同工作,以實現高效的通用計算和圖形渲染。GPU 的計算架構由一系列流式多處理器(SM)組成,其中每個 SM 又由多個流式處理器、核心或線程組成,例如,NVIDIA H100 GPU 具有 132 個 SM,每個 SM 擁有 64 個核心,總計核心高達 8448 個;每個SM 還配備了幾個功能單元或其他加速計算單元,例如張量核心(Tensor Core)或光線追蹤單元(Ray Tracing Unit),用于滿足 GPU 所處理的工作負載的特定計算需求。GPU 具有多層不同類型的內
48、存,每一層都有其特定用途。第 14 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 23:GPU 的計算架構的計算架構 圖圖 24:GPU 的的內存架構內存架構 資料來源:OneFlow,中原證券研究所 資料來源:OneFlow,中原證券研究所 GPU 硬件性能硬件性能可以可以通過通過多個參數多個參數綜合評估綜合評估,包括,包括核心數量、核心頻率、顯存容量、顯存核心數量、核心頻率、顯存容量、顯存位寬、顯存帶寬、顯存頻率、工藝位寬、顯存帶寬、顯存頻率、工藝制程制程等等。GPU 的核心數量越多、核心頻率越高,GPU 的計算能力越強。顯存容量越大,GPU 能
49、夠處理的數據規模就越大;顯存帶寬越高,GPU 顯存與核心之間數據傳輸的速率越快。GPU 的工藝制程越先進,GPU 性能越好、功耗越低。表表 2:GPU 硬件性能評價參數硬件性能評價參數 性能參數性能參數 含義 CUDA 核心數量 CUDA 核心是英偉達 GPU 中用于進行通用計算的處理單元,數量越多,GPU 并行處理數據的能力就越強。Tensor 核心數量 Tensor 核心是英偉達 GPU 中的專用硬件單元,主要用于加速 AI 和深度學習任務;Tensor 核心數量越多性能越好,Tensor 核心的性能隨著架構升級而不斷提升;Tensor 核心的性能優勢可以通過高吞吐量、混合精度支持及性能等
50、方面來體現。核心頻率 核心頻率是指 GPU 每秒鐘執行的次數,核心頻率越高,性能越強。顯存容量 顯存容量決定著顯存臨時存儲數據的多少,顯存容量越大,GPU 能夠處理的數據規模就越大。顯存帶寬 顯存帶寬是指 GPU 顯存與核心之間數據傳輸的速率,它反映了 GPU 在單位時間內能夠處理的數據量。顯存帶寬顯存頻率顯存位寬/8,顯存帶寬與顯存頻率、顯存位寬成正比關系。顯存位寬 顯存位寬是指 GPU 顯存接口的數據傳輸通道的寬度,通常以 bit(位)為單位。顯存位寬越大,GPU 與顯存之間每次可以傳輸的數據量越多,顯存帶寬越高。顯存頻率 顯存頻率是指顯存在單位時間內能夠進行數據傳輸的次數,通常以 MHz
51、 為單位,顯存頻率決定了顯存與 GPU 之間數據傳輸的速度。工藝制程 工藝制程是指在制造 GPU 芯片時所采用的技術工藝和制造流程,通常用納米(nm)來衡量,工藝制程越先進,GPU 性能越好、功耗越低。資料來源:平行云,華秋商城,中原證券研究所 GPU 架構對性能影響至關重要,不同架構下的硬件性能參數有所不同架構對性能影響至關重要,不同架構下的硬件性能參數有所不同。GPU 架構的每次升級在計算能力、圖形處理能力、能效比等多方面對性能產生了顯著提升,所以 GPU 架構對性能影響至關重要。通過對比英偉達 GeForce 系列 RTX 3090、RTX 4090、RTX 5090,不同 GPU 架構
52、下硬件性能參數有所不同。隨著 GPU 架構的升級,GPU 廠商通常會采用更先進的工藝制程,比如英偉達從 8nm 工藝的 Ampere 架構升級到 4nm 工藝的 Blackwell 架構,在相同性能下,新工藝能夠降低功耗,或者在相同功耗下提供更高的性能。第 15 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 表表 3:英偉達:英偉達 GeForce 系列系列 GPU 硬件性能參數對比情況硬件性能參數對比情況 RTX 3090 RTX 4090 RTX 5090 GPU 架構 NVIDIA Ampere NVIDIA Ada Lovelac NVIDIA B
53、lackwell CUDA 核心數量 10496 16384 21760 Tensor 核心數量 328 512 680 核心頻率 1.70 GHz 2.52 GHz 2.41 GHz 顯存容量 24 GB 24 GB 32 GB 顯存帶寬 936 GB/s 1008 GB/s 1792 GB/s 顯存位寬 384 bit 384 bit 512 bit 顯存頻率 19.5 Gbps 21 Gbps 28 Gbps 工藝制程 Samsung 8 nm 8N TSMC 4nm 4N TSMC 4nm 4N 資料來源:英偉達,中原證券研究所 多多 GPU 互連成為行業發展趨勢,以提高系統的計算能力
54、互連成為行業發展趨勢,以提高系統的計算能力。隨著 AI 大模型時代來臨,AI算力需求不斷增長,由于單 GPU 芯片算力和內存有限,無法承載大模型的訓練任務,通過多種互連技術將多顆 GPU 芯片互連在一起提供大規模的算力,已成為行業發展趨勢。對于多GPU 系統,如何實現 GPU 之間的高速數據傳輸和協同工作是關鍵問題。英偉達推出NVLink、NVSwitch 等互連技術,通過更高的帶寬和更低的延遲,為多 GPU 系統提供更高的性能和效率,支持 GPU 之間的高速數據傳輸和協同工作,提高通信速度,加速計算過程等。NVLink 用于連接多個 GPU 之間或連接 GPU 與其他設備(如 CPU、內存等
55、)之間的通信,它允許 GPU 之間以點對點方式進行通信,具有比傳統的 PCIe 總線更高的帶寬和更低的延遲。NVSwitch 實現單服務器中多個 GPU 之間的全連接,允許單個服務器節點中多達 16 個GPU 實現全互聯,每個 GPU 都可以與其他 GPU 直接通信,無需通過 CPU 或其他中介。經過多年演進,NVLink 技術已升級到第 5 代,NVLink 5.0 數據傳輸速率達到 100GB/s,每個Blackwell GPU 有 18 個 NVLink 連接,Blackwell GPU 將提供 1.8TB/s 的總帶寬,是 PCIe Gen5 總線帶寬的 14 倍;NVSwitch 也
56、升級到了第四代,每個 NVSwitch 支持 144 個 NVLink 端口,無阻塞交換容量為 14.4TB/s。圖圖 25:英偉達多:英偉達多 GPU 系統架構圖系統架構圖 圖圖 26:英偉達:英偉達 NVLink 技術演進情況技術演進情況 資料來源:nextplatform,半導體行業觀察,中原證券研究所 資料來源:英偉達,半導體行業觀察,中原證券研究所 GPU 應用場景廣泛,應用場景廣泛,數據中心數據中心 GPU 市場快速增長市場快速增長。GPU 最初設計用于圖形渲染,但隨著其并行計算能力的提升,GPU 的應用場景已經擴展到數據中心、自動駕駛、機器人、區塊鏈與加密貨幣、科學計算、金融科技
57、、醫療健康等多個領域。近年來數據中心 GPU 市場在全第 16 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 球范圍內呈現出快速增長的趨勢,尤其是在人工智能、高性能計算和云計算等領域。圖圖 27:GPU 應用場景廣泛應用場景廣泛 資料來源:極云科技,中國算力發展報告(2024 年),中原證券研究所 GPU 是是 AI 服務器服務器算力的基石算力的基石,有望暢享有望暢享 AI 算力需求爆發浪潮算力需求爆發浪潮。GPU 是 AI 服務器算力的基石,隨著 AI 算力規模的快速增長將催生更大的 GPU 芯片需求。根據 Statista 的數據,2023 年全球 G
58、PU 市場規模為 436 億美元,預計 2029 年市場規模將達到 2742 億美元,預計2024-2029 年復合增速達 33.2%。圖圖 28:2023-2029 全球全球 GPU 市場規模情況及預測(億美元)市場規模情況及預測(億美元)資料來源:Statista,半導體行業觀察,中原證券研究所 英偉達主導全球英偉達主導全球 GPU 市場市場。根據 TechInsights 的數據,2023 年全球數據中心 GPU 總出貨量達到了 385 萬顆,相比 2022 年的 267 萬顆同比增長 44.2%,其中英偉達數據中心 2023 年 GPU 出貨量呈現爆發式增長,總計約 376 萬臺,英偉
59、達在數據中心 GPU 出貨量中占據98%的市場份額,英偉達還占據全球數據中心 GPU 市場 98%的收入份額,達到 362 億美元,是 2022 年 109 億美元的三倍多。根據 Jon Peddie Research 的數據,2024 年第四季度全球 PC GPU 出貨量達到 7800 萬顆,同比增長 0.8%,環比增長 6.2%,其中英特爾、AMD、英偉達的市場份額分別為 65%、18%、16%。第 17 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 29:2023 年年全球數據中心全球數據中心 GPU 市場市場競爭格局情況競爭格局情況 圖圖 3
60、0:24Q4 全球全球 PC GPU 市場市場競爭格局情況競爭格局情況 資料來源:TechInsights,半導體行業觀察,中原證券研究所 資料來源:Jon Peddie Research,快科技,中原證券研究所 GPU 生態體系生態體系主要由主要由三部分構成,包括底層硬件三部分構成,包括底層硬件,中間層中間層 API 接口、算法庫、開發工具接口、算法庫、開發工具等,上層應用等,上層應用。以英偉達數據中心平臺 GPU 生態體系為例,底層硬件的核心是英偉達的 GPU 產品、用于 GPU 之間高速連接的 NVSwitch、節點之間互聯的各種高速網卡、交換機等,以及基于 GPU 構建的服務器;中間層
61、是軟件層面的建設,包括計算相關的 CUDA-X、網絡存儲及安全相關的 DOCA 和 MAGNUM IO 加速庫,以及編譯器、調試和優化工具等開發者工具包和基于各種行業的應用框架;上層是開發者基于英偉達提供的軟硬件平臺能力,所構建的行業應用。圖圖 31:英偉:英偉達達數據中心平臺數據中心平臺 GPU 生態生態體系體系架構圖架構圖 資料來源:英偉達,infoQ,中原證券研究所 GPU 廠商非常重視軟件生態系統的構建,廠商非常重視軟件生態系統的構建,英偉達英偉達 CUDA 生態幾乎占據通用計算生態幾乎占據通用計算 GPU 領領域的全部市場域的全部市場。CUDA 全稱為 Compute Unified
62、 Device Architecture,即統一計算設備架構,是英偉達推出的基于其 GPU 的通用高性能計算平臺和編程模型。目前 CUDA 生態包括編程語言和 API、開發庫、分析和調試工具、GPU 加速應用程序、GPU 與 CUDA 架構鏈接、數據中心工具和集群管理六個部分。編程語言和 API 支持 C、C+、Fortran、Python 等多種高級編程語言;英偉達提供的 CUDA 工具包可用于在 GPU 上開發、優化和部署應用程序,還支持第三方工具鏈,如 PyCUDA、AltiMesh Hybridizer、OpenACC、OpenCL、Alea-GPU 等,方便開發者從不同的編程接口來使
63、用 CUDA。英偉達在 CUDA 平臺上提供了CUDA-X,它是一系列庫、工具和技術的集合,其中包括數學庫、并行算法庫、圖像和視頻庫、通信庫、深度學習庫等,同時還支持 OpenCV、FFmpeg 等合作伙伴提供的庫。英偉達第 18 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 提供了多種工具來幫助開發者進行性能分析和調試,NVIDIA Nsight 是低開銷的性能分析、跟蹤和調試工具,提供基于圖形用戶界面的環境,可在多種英偉達平臺上使用;CUDA GDB 是 Linux GDB 的擴展,提供基于控制臺的調試接口;CUDA-Memcheck 可用于檢查內存訪
64、問問題;此外還支持第三方解決方案,如 ARM Forge、TotalView Debugger 等。目前幾乎所有的深度學習框架都使用 CUDA/GPU 計算來加速深度學習的訓練和推理,英偉達維護了大量經過 GPU 加速的應用程序。在數據中心中,英偉達與生態系統合作伙伴緊密合作,為開發者和運維人員提供軟件工具,涵蓋 AI 和高性能計算軟件生命周期的各個環節,以實現數據中心的輕松部署、管理和運行;例如通過 Mellanox 高速互連技術,可將數千個 GPU 連接起來,構建大規模的計算集群。CUDA 生態系統復雜,建設難度大,CUDA 生態幾乎占據通用計算 GPU 領域的全部市場。圖圖 32:英偉達
65、:英偉達 CUDA 生態生態系統系統的組成的組成 資料來源:英偉達,中原證券研究所 GPU 生態體系建立極高的行業壁壘生態體系建立極高的行業壁壘。GPU 一方面有對硬件性能的要求,還需要軟件體系進行配套,而 GPU 軟件生態系統復雜,建設周期長、難度大。英偉達 CUDA 生態從 2006 年開始建設,經過多年的積累,建立強大的先發優勢,英偉達通過與客戶進行平臺適配、軟件開源合作,不斷加強客戶粘性,GPU 行業新進入者轉移客戶的難度極大,GPU 生態體系建立極高的行業壁壘。圖圖 33:英偉達:英偉達 CUDA 加速計算解決方案加速計算解決方案 資料來源:英偉達,半導體行業研究,中原證券研究所 第
66、 19 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 2.3.云廠商云廠商等大廠自研芯片趨勢明顯,等大廠自研芯片趨勢明顯,推動定制推動定制 ASIC 芯片市場高速成長芯片市場高速成長 AI ASIC 是一種專為人工智能應用設計的定制集成電路,具有高性能、低功耗、定制是一種專為人工智能應用設計的定制集成電路,具有高性能、低功耗、定制化、低成本等特點化、低成本等特點。與通用處理器相比,AI ASIC 針對特定的 AI 任務和算法進行了優化,如深度學習中的矩陣乘法、卷積等運算,能在短時間內完成大量計算任務,提供高吞吐量和低延遲,滿足 AI 應用對實時性的要求;A
67、I ASIC 通過優化電路設計和采用先進的工藝技術,在處理 AI 工作負載時具有較高的能效比,適合大規模數據中心等對能耗敏感的場景;雖然前期研發和設計成本較高,在大規模部署時,ASIC 的單位計算成本通常低于通用處理器。圖圖 34:Marvell 用于數據中心的用于數據中心的 ASIC 解決方案解決方案 圖圖 35:博通:博通 AI ASIC 內部架構圖內部架構圖 資料來源:Marvell,中原證券研究所 資料來源:博通,中原證券研究所 AI ASIC 與與 GPU 在在 AI 計算任務中各有優勢和劣勢計算任務中各有優勢和劣勢。在算力上,先進 GPU 比 ASIC 有明顯的優勢;ASIC 針對
68、特定任務優化,通常能提供更高的計算效率,ASIC 在矩陣乘法、卷積運算等特定 AI 任務上性能可能優于 GPU;GPU 通用性強,能夠運行各種不同類型的算法和模型,ASIC 功能固定,難以修改和擴展,靈活性較差;ASIC 針對特定任務優化,功耗顯著低于 GPU;GPU 研發和制造成本較高,硬件成本是大規模部署的重要制約因素,ASIC 在大規模量產時單位成本相對較低。表表 4:AI ASIC 與與 GPU 性能參數對比情況性能參數對比情況 廠商廠商 產品型號產品型號 發布發布時間時間 工藝工藝 核心數核心數量量 FP32 算力算力 TF32 算力算力 FP/BF16 算力算力 INT8 算力算力
69、 顯存顯存容量容量 顯存顯存 帶寬帶寬 芯片芯片間互間互聯帶寬聯帶寬 功功耗耗 nm TFLOPS TFLOPS TFLOPS TOPS GB GB/s GB/s W 英偉達 H100 SXM 2022 4 16896 67 989 1979 3958 80 3350 900 700 英偉達 GB200 2024 4 20480 180 5000 10000 20000 384 16000 3600 AMD MI250X 2021 6 14080 95.7 383 383 128 3200 800 560 AMD MI300X 2023 5/6 19456 163.4 653.7 1307.4
70、 2614.9 192 5300 896 750 谷歌 TPU v5p 2023 5 459 918 1200 谷歌 TPU v6 Trillium 2024 4 926 1852 亞馬遜 Trainium2 2023 181 667 1280 Meta MTIA v2 2024 5 354 708 90 微軟 Maia 100 2024 5 800 1600 700 資料來源:各公司官網,STH,The Next Platform,中原證券研究所 第 20 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 GPU 軟件生態成熟且豐富軟件生態成熟且豐富,AI
71、ASIC 推動軟件生態走向多元化推動軟件生態走向多元化。ASIC 的軟件生態缺乏通用性,主要是對特定應用場景和算法進行優化;由于 ASIC 的開發工具和軟件庫資源相對較少,編程難度比 GPU 大,開發者在使用 ASIC 進行開發和調試時所需要花費時間會更多。GPU 的軟件生態成熟且豐富,如英偉達 CUDA 和 AMD ROCm 等,提供了廣泛的開發工具、編程語言支持,并擁有大量的開源項目和社區資源。為了提升 AI ASIC 在特定場景下的計算效率,谷歌、亞馬遜、META、微軟等廠商為 ASIC 開發了配套的全棧軟件生態,包括編譯器、底層中間件等,持續降低從 CUDA 生態向其他生態轉換的遷移成
72、本,以減輕對 CUDA 生態的依賴性。圖圖 36:華為昇騰:華為昇騰 AI 生態系統架構圖生態系統架構圖 資料來源:華為,搜狐,中原證券研究所 云廠商云廠商等大廠自研芯片趨勢明顯,等大廠自研芯片趨勢明顯,推動數據中心定制推動數據中心定制 ASIC 芯片市場高速增長芯片市場高速增長。由于全球頭部云廠商、互聯網廠商等對 AI 算力芯片需求量巨大,英偉達壟斷全球數據中心 GPU 市場,因成本、差異化競爭、創新性、供應鏈多元化等原因,越來越多地大廠開始設計自有品牌的芯片,大廠自研芯片趨勢明顯;云廠商等大力投入自研 AI ASIC,推動數據中心定制 ASIC芯片市場高速增長,預計增速快于通用 AI 算力
73、芯片。根據 Marvell 的數據,2023 年數據中心AI 算力芯片市場規模約為 420 億美元,其中定制 ASIC 芯片占比 16%,市場規模約為 66 億美元;預計 2028 年數據中心定制 ASIC 芯片市場規模將達到 429 億美元,市場份額約為25%,2023-2028 年復合增速將達到 45%;預計 2028 年數據中心 AI 算力芯片市場規模將達約 1720 億美元,2023-2028 年復合增速約為 32%。圖圖 37:2023-2028 年數據中心年數據中心 AI 算力芯片市場規模及預算力芯片市場規模及預測情況測情況 圖圖 38:2023-2028 年數據中心年數據中心定制
74、定制 ASIC 芯片市場規模及預芯片市場規模及預測情況測情況 資料來源:650 Group,CignalAI,DellOro,LightCounting,Marvell,半導體行業觀察,中原證券研究所 資料來源:650 Group,CignalAI,DellOro,LightCounting,Marvell,半導體行業觀察,中原證券研究所 第 21 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 云廠商自研云廠商自研 AI ASIC 芯片時,通常會與芯片設計廠商合作,然后再由臺積電等晶圓代工芯片時,通常會與芯片設計廠商合作,然后再由臺積電等晶圓代工廠進行芯片
75、制造,目前全球定制廠進行芯片制造,目前全球定制 AI ASIC 市場競爭格局以博通、市場競爭格局以博通、Marvell 等等廠商廠商為主為主。博通為全球定制 AI ASIC 市場領導廠商,已經為大客戶實現 AI ASIC 大規模量產。博通在多年的發展中已經積累了大量的成體系的高性能計算/互連 IP 核及相關技術,除了傳統的 CPU/DSP IP 核外,博通還具有交換、互連接口、存儲接口等關鍵 IP 核;這些成體系的 IP 核可以幫助博通降低 ASIC 產品成本和研發周期,以及降低不同 IP 核聯合使用的設計風險,并建立博通強大的競爭優勢。博通 2024 財年 AI 收入達到 120 億美元,公
76、司 CEO 表示,到 2027 年,公司在 AI 芯片和網絡組件的市場規模將達到 600 億到 900 億美元。圖圖 39:博通累積的定制芯片設計經歷博通累積的定制芯片設計經歷 圖圖 40:博通定制技術能力與博通定制技術能力與 IP 核核情況情況 資料來源:博通,半導體產業縱橫,中原證券研究所 資料來源:博通,半導體產業縱橫,中原證券研究所 谷歌谷歌 TPU(Tensor Processing Unit)即張量處理單元,是谷歌專為加速機器學習任務)即張量處理單元,是谷歌專為加速機器學習任務設計的定制設計的定制 ASIC 芯片,主要用于深度學習的訓練和推理芯片,主要用于深度學習的訓練和推理。TP
77、U 基本上是專門用于矩陣乘法的計算核心,并與高帶寬內存(HBM)連接;TPU 的基本組件包括矩陣乘法單元(MXU)、矢量單元(VPU)和矢量內存(VMEM);矩陣乘法單元是 TensorCore 的核心,矢量處理單元執行一般數學運算,矢量內存是位于 TensorCore 中靠近計算單元的片上暫存器;TPU 在進行矩陣乘法方面速度非???。圖圖 41:TPU 內部內部架構圖架構圖 資料來源:半導體行業觀察,中原證券研究所 目前谷歌目前谷歌 TPU 已經迭代至第六代產品,每代產品相較于上一代在芯片架構及性能上均有已經迭代至第六代產品,每代產品相較于上一代在芯片架構及性能上均有一定的提升一定的提升。2
78、015 年谷歌 TPU v1 推出,主要用于推理任務。2024 年谷歌發布第六代產品TPU v6 Trillium,是目前性能最強、能效最高的 TPU。TPU v6 Trillium 與上一代 TPU v5e 相比,單芯片峰值計算性能提高了 4.7 倍,HBM 容量和帶寬均增加一倍,同時芯片間互連帶寬也增加一倍;TPU v6 Trillium 在性能提升的同時,能源效率比上一代提高了 67%,顯著降低第 22 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 了運營成本;TPU v6 Trillium 被用于訓練谷歌的 Gemini 2.0 等 AI 大模型。
79、表表 5:谷歌:谷歌 TPU 歷代產品性能參數歷代產品性能參數情況情況 v1 v2 v3 v4 v5e v5p v6 Trillium 發布時間 2015 2017 2018 2021 2023 2023 2024 BF16 算力(TFLOPs)-46 123 137.5 197 459 926 INT8 算力(TFLOPs)92-275 394 918 1852 HBM 容量(GB)8 16 32 32 16 95 32 HBM 帶寬(GB/s)300 700 900 1228 819 2765 1640 ICI 帶寬(GB/s)-4*496 4*656 6*448 4*400 6*800
80、4*800 工藝制程(nm)28 16 16 7 5 5 4 資料來源:Next Platform,中原證券研究所 谷歌谷歌 TPU 迭代推動大模型訓練與推理效率大幅提升迭代推動大模型訓練與推理效率大幅提升。Gemini 等 AI 大模型性能強大且復雜,擁有數十億個參數,訓練如此密集的大模型 需要巨大的計算能力以及共同設計的軟件優化。與上一代 TPU v5e 相比,TPU v6 Trillium 為 Llama-2-70b 和 gpt3-175b 等大模型提供了高達 4 倍的訓練速度。TPU v6 Trillium 為推理工作負載提供了重大改進,為圖像擴散和大模型 提供了最好的 TPU 推理性
81、能,從而實現了更快、更高效的 AI 模型部署;與 TPU v5e 相比,TPU v6 Trillium 的 Stable Diffusion XL 離線推理相對吞吐量(每秒圖像數)高出 3.1 倍,服務器推理相對吞吐量高出 2.9 倍。圖圖 42:在在 TPU v5e 和和 v6 Trillium 上運行的上運行的 steptime 的的 Google 基準測試基準測試情況情況 圖圖 43:在:在 TPU v5e 和和 v6 Trillium 上進行上進行 SDXL 基準測試基準測試情情況況 資料來源:谷歌,半導體行業觀察,中原證券研究所 資料來源:谷歌,半導體行業觀察,中原證券研究所 谷歌已
82、建立谷歌已建立 100000 TPU 芯片芯片算力算力集群集群。TPU 芯片通過 ICI 連接成算力集群,TPU 網絡可以連接 16x16x16 TPU v4 和 16x20 x28TPU v5p。為了滿足日益增長的 AI 計算需求,谷歌已將超過 100000 個 TPU v6 Trillium 芯片連接到一個網絡結構中,構建了世界上最強大的 AI 超級計算機之一;該系統將超過 100000 個 TPU v6 Trillium 芯片與每秒 13 PB 帶寬的 Jupiter 網絡結構相結合,使單個分布式訓練作業能夠擴展到數十萬個加速器上。這種大規模芯片集群可以提供強大的計算能力,實現高效的并行
83、計算,從而加速大模型的訓練過程,提高人工智能系統的性能和效率。第 23 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 44:谷歌:谷歌 TPU 芯片通過芯片通過 ICI 相互連接相互連接 圖圖 45:由:由 TPU v4 建立的建立的算力集群算力集群示意圖示意圖 資料來源:半導體行業觀察,中原證券研究所 資料來源:半導體行業觀察,中原證券研究所 2.4.美國不斷加大對高端美國不斷加大對高端 AI 算力芯片出口管制,國產廠商迎來黃金發展期算力芯片出口管制,國產廠商迎來黃金發展期 美國對高端美國對高端 GPU 供應限制不斷趨嚴,國產供應限制不斷趨嚴,國產
84、 AI 算力芯片廠商迎來黃金發展期。算力芯片廠商迎來黃金發展期。美國商務部在 2022、2023、2025 年連續對高端 AI 算力芯片進行出口管制,不斷加大英偉達及 AMD高端 GPU 芯片供應限制,國產 AI 算力芯片廠商迎來黃金發展機遇,但國產廠商華為海思、寒武紀、海光信息、壁仞科技和摩爾線程等進入出口管制“實體清單”,晶圓代工產能供應受限,影響國產 AI 算力芯片發展速度。表表 6:近年美國對:近年美國對 AI 算力芯片相關算力芯片相關制裁政策情況制裁政策情況 時間時間 具體事件及制裁政策情況具體事件及制裁政策情況 2022 年 8 月 美國芯片廠商英偉達和 AMD 收到美國政府通知,
85、要求停止向中國出口用于人工智能的高端計算芯片,該禁令影響的芯片分別為英偉達的 GPU A100 與 H100,以及 AMD 的 GPU MI200。2022 年 10 月 美國商務部公布一系列針對中國的出口管制新規,BIS 這項新的半導體出口限制政策涉及到對中國的先進計算、半導體先進制造進行出口管制;具體要限制美國的半導體設備在國內應用到 16/14nm 及以下工藝節點(非平面架構)的邏輯電路制造、128 層及以上的 3D NAND 工藝制造、18nm 及以下的 DRAM工藝制造;對中國超級計算機或半導體開發或生產最終用途的項目進行限制;限制美國公民支持中國半導體制造或者研發。2022 年 1
86、2 月 美國商務部將長江存儲、上海微電子、寒武紀等 36 家中國實體加入出口管制“實體清單”。2023 年 10 月 美國商務部公布針對先進計算芯片、半導體制造設備出口管制的更新規則,并將 13 家中國 GPU 企業列入實體清單,主要為壁仞科技和摩爾線程及其子公司。2025 年 1 月 美國政府公布對 AI 芯片出口的新限制措施,這份新規將出口目的地分為三類,美國對 18 個關鍵盟友與合作伙伴的芯片銷售無任何限制;對中國、伊朗等實施了嚴格的 AI 芯片銷售限制;對其他國家,大多數國家則將面臨總算力限制,每個國家在 2025 年至 2027 年期間最多可獲得約 5 萬個 AI GPU。2025
87、年 1 月 美國商務部修訂了出口管制條例,共增加了 25 個中國實體,主要包括智譜旗下 10 個實體、算能旗下約 11 個實體,以及哈勃投資的光刻機企業科益虹源等;BIS 還更新先進計算半導體的出口管制,針對于先進邏輯集成電路是采用“16nm/14nm 節點”及以下工藝、或采用非平面晶體管架構生產的邏輯集成電路,采取更多審查和規范,并且細化了多個物項信息如 DRAM 行業 18 納米半間距節點的生產標準等。資料來源:中華人民共和國商務部官網,美國商務部官網,美國政府官網,人民網,央視網,芯智訊,半導體產業縱橫,騰訊,新浪,中原證券研究所 國產國產 AI 算力芯片算力芯片廠商不斷追趕廠商不斷追趕
88、海外龍頭廠商海外龍頭廠商,但,但在硬件性能上與全球領先水平仍有一定在硬件性能上與全球領先水平仍有一定的差距的差距。隨著 AI 應用計算量的不斷增加,要實現 AI 算力的持續大幅增長,既要單卡性能提升,又要多卡組合。從 AI 算力芯片硬件來看,單個芯片硬件性能及卡間互聯性能是評估 AI 算第 24 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 力芯片產品水平的核心指標。國產廠商在芯片微架構、制程等方面不斷追趕海外龍頭廠商,產品性能逐步提升,但與全球領先水平仍有 1-2 代的差距。表表 7:部分國產:部分國產 AI 算力芯片技術指標與國際主流產品對比情況算力芯
89、片技術指標與國際主流產品對比情況 廠商 產品型號 發布時間 工藝 核心數量 FP32 算力 TF32 算力 FP/BF16 算力 INT8 算力 顯存容量 顯存 帶寬 GPU 間互聯帶寬 功耗 nm TFLOPS TFLOPS TFLOPS TOPS GB GB/s GB/s W 英偉達 V100 SXM 2017 12 5120 15.7 125 32 900 300 300 英偉達 A100 SXM 2020 7 6912 19.5 156 312 624 80 2039 600 400 英偉達 H100 SXM 2022 4 16896 67 989 1979 3958 80 3350
90、900 700 英偉達 GB200 2024 4 20480 180 5000 10000 20000 384 16000 3600 AMD MI100 2020 7 7680 23.1 46.1 92.3 92.3 32 1200 276 300 AMD MI250X 2021 6 14080 95.7 383 383 128 3200 800 560 AMD MI300X 2023 5/6 19456 163.4 653.7 1307.4 2614.9 192 5300 896 750 寒武紀 MLU370-X8 2022 7 24 96 256 48 614.4 200 250 海光信息
91、 深算一號 2021 7 4096 32 1024 184 350 華為 昇騰 910 2019 7 256 512 壁仞科技 壁礪106B 2022 300 壁仞科技 壁礪106C 2022 150 燧原科技 云燧 T20 2021 32 1600 300 300 燧原科技 云燧 T21 2021 32 1600 300 300 摩爾線程 MTT S3000 2022 4096 15.2 32 448 250 摩爾線程 MTT S4000 2023 8192 25 50 100 200 48 768 450 資料來源:各公司官網,海光信息招股說明書,寒武紀招股說明書,機器之心,中原證券研究所
92、 AI 算力芯片軟件生態壁壘極高,算力芯片軟件生態壁壘極高,國產領先廠商華為昇騰、寒武紀等未來有望在生態上取國產領先廠商華為昇騰、寒武紀等未來有望在生態上取得突破得突破。在軟件生態方面,英偉達經過十幾年的積累,其 CUDA 生態建立極高的競爭壁壘,國產廠商通過兼容 CUDA 及自建生態兩條路徑發展,國內領先廠商華為昇騰、寒武紀等未來有望在生態上取得突破。華為基于昇騰系列 AI 芯片,通過模組、板卡、小站、服務器、集群等豐富的產品形態,打造面向“端、邊、云”的全場景 AI 基礎設施方案。昇騰計算是基于硬件和基礎軟件構建的全棧 AI 計算基礎設施、行業應用及服務,包括昇騰系列 AI 芯片、系列硬件
93、、CANN(異構計算架構)、Al 計算框架、應用使能、開發工具鏈、管理運維工具、行業應用及服務等全產業鏈。昇騰計算已建立基于昇騰計算技術與產品、各種合作伙伴,為千行百業第 25 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 賦能的生態體系。圖圖 46:昇騰計算系統架構框圖:昇騰計算系統架構框圖 圖圖 47:昇騰計算產業生態圖:昇騰計算產業生態圖 資料來源:昇騰計算產業發展白皮書,中原證券 資料來源:昇騰計算產業發展白皮書,中原證券 3.DeepSeek 有望推動國產有望推動國產 AI 算力芯片加速發展算力芯片加速發展 DeepSeek 通過技術創新實現大模
94、型訓練極高的性價比通過技術創新實現大模型訓練極高的性價比。2024 年 12 月 26 日,DeepSeek 正式發布全新系列模型 DeepSeek-V3,DeepSeek-V3 為自研 MoE 模型,總參數量為 671B,每個 token 激活 37B 參數,在 14.8T token 上進行了預訓練。DeepSeek-V3在性能上對標 OpenAI GPT-4o 模型,并在成本上優勢巨大,實現極高的性價比。DeepSeek-V3 的技術創新主要體現在采用混合專家(MoE)架構,動態選擇最合適的子模型來處理輸入數據,以降低計算量;引入多頭潛在注意力機制(MLA)降低內存占用和計算成本,同時保
95、持高性能;采用 FP8 混合精度訓練降低算力資源消耗,同時保持模型性能;采用多 Token 預測(MTP)方法提升模型訓練和推理的效率。DeepSeek MoE 架構通過動態組合多個專家模型來提升模型的性能和效率架構通過動態組合多個專家模型來提升模型的性能和效率。DeepSeek 的 MoE 架構通過將傳統 Transformer 中的前饋網絡(FFN)層替換為 MoE 層,引入多個專家網絡(Experts)和一個門控網絡(Gating Network)。專家網絡包括多個獨立的專家模型,每個專家模型負責處理特定類型的數據。門控網絡負責決定每個輸入數據應該由哪些專家模型處理,并分配相應的權重;通
96、過門控機制,模型能夠動態選擇最合適的專家來處理輸入數據。DeepSeek MoE 架構采用稀疏激活策略,每次訓練或推理時只激活部分專家,而不是整個模型;在 DeepSeek-V3 中,模型總參數為 6710 億,但每次訓練僅激活 370 億參數,從而提高計算效率。傳統的 Transformer 架構采用固定的編碼器-解碼器結構,所有輸入數據通過相同的多層自注意力機制和前饋神經網絡處理;模型的參數是靜態的,無法根據輸入數據的特性動態調整。多頭潛在注意力機制(多頭潛在注意力機制(MLA)的核心思想是對的核心思想是對 KV 進行低秩壓縮,以減少推理過程中的進行低秩壓縮,以減少推理過程中的KV 緩存緩
97、存,從而從而降低降低內存占用內存占用及及計算成本計算成本。在傳統的 Transformer 架構推理過程中,在進行生成式任務時,模型需要逐步生成序列,每次生成一個新 token 時,模型需要讀入所有過去 第 26 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 Token 的上下文,重新計算之前所有 token 的鍵(Key)和值(Value)。KV 緩存通過存儲這些已計算的 Key 和 Value,避免重復計算,從而提高推理效率。MLA 的方法是將 KV 矩陣轉換為低秩形式,將原矩陣表示為兩個較小矩陣(相當于潛在向量)的乘積,在推理過程中,僅緩存潛在向量,
98、而不緩存完整的 KV。這種低秩壓縮技術顯著減少了 KV 緩存的大小,同時保留了關鍵信息,從而降低內存占用及計算成本。圖圖 48:DeepSeek-V3 基本基本架構圖架構圖 資料來源:DeepSeek-V3 Technical Report,中原證券研究所 多多 token 預測(預測(MTP)是一種創新的訓練目標,通過同時預測多個未來)是一種創新的訓練目標,通過同時預測多個未來 token 來提升模來提升模型的訓練和推理效率型的訓練和推理效率。MTP 技術基于主模型(Main Model)和多個順序模塊(MTP Module),主模型負責基礎的下一個 Token 預測,而 MTP 模塊用于預
99、測多個未來 Token。傳統的模型通常一次只預測下一個 token,在生成文本時,模型按照順序逐個生成下一個 Token,每生成一個 Token 都要進行一次完整的計算,依賴前一個生成的 Token 來生成下一個;而 MTP 能夠同時預測多個連續的 Token,模型通過改造增加多個獨立輸出頭,利用多 token 交叉熵損失進行訓練,一次計算可以得到多個 Token 的預測結果,顯著增加了訓練信號的密度,提升模型的訓練和推理效率,并且 MTP 生成的文本更加連貫自然,適合長文本生成任務。圖圖 49:DeepSeek-V3 MTP 應用應用示意示意圖圖 資料來源:DeepSeek-V3 Techn
100、ical Report,中原證券研究所 第 27 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 DeepSeek 采用采用 FP8 混合精度訓練技術在訓練效率、內存占用和模型性能方面實現了顯混合精度訓練技術在訓練效率、內存占用和模型性能方面實現了顯著優化著優化。傳統大模型通常使用 FP32 或 FP16 進行訓練,精度較高,但計算速度慢,內存占用較大。而 FP8 數據位寬是 8 位,與 FP16、FP32 相比,使用 FP8 進行計算的速度最快、內存占用最小。DeepSeek FP8 混合精度將 FP8 與 BF16、FP32 等結合,采用 FP8 進行大
101、量核心計算操作,少數關鍵操作則使用 BF16 或 FP32,提高效率的同時確保數值穩定性,并顯著減少了內存占用和計算開銷。圖圖 50:DeepSeek-V3 FP8 混合精度框架示意混合精度框架示意圖圖 資料來源:DeepSeek-V3 Technical Report,中原證券研究所 DeepSeek-V3 性能對標性能對標 GPT-4o。DeepSeek-V3 多項評測成績超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他開源模型,并在性能上和世界頂尖的閉源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。DeepSeek-V3 在知識類任務(M
102、MLU,MMLU-Pro,GPQA,SimpleQA)上的水平相比前代 DeepSeek-V2.5 顯著提升,接近當前表現最好的模型 Claude-3.5-Sonnet-1022;長文本測評方面,在 DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表現超越其他模型;DeepSeek-V3 在算法類代碼場景(Codeforces),遠遠領先于市面上已有的全部非 o1 類模型,并在工程類代碼場景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022;在美國數學競賽(AIME 2024,MATH)和全國高中數學聯賽(CNMO
103、2024)上,DeepSeek-V3 大幅超過了所有開源閉源模型;DeepSeek-V3 與 Qwen2.5-72B 在教育類測評 C-Eval 和代詞消歧等評測集上表現相近,但在事實知識 C-SimpleQA 上更為領先。圖圖 51:DeepSeek-V3 多項評測成績多項評測成績對標對標 GPT-4o 圖圖 52:DeepSeek-V3 多項評測成績多項評測成績與其他大模型對比情與其他大模型對比情況況 資料來源:DeepSeek,中原證券研究所 資料來源:DeepSeek,中原證券研究所 第 28 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 Deep
104、Seek-R1 通過冷啟動與多階段訓練顯著提升模型的推理能力,模型蒸餾技術有望通過冷啟動與多階段訓練顯著提升模型的推理能力,模型蒸餾技術有望推動推動 AI 應用加速落地應用加速落地。DeepSeek-R1-Zero 與 DeepSeek-R1 都是基于強化學習(RL)的推理模型,DeepSeek-R1-Zero 存在語言不一致等輸出方面的問題,DeepSeek-R1 通過冷啟動與多階段訓練,顯著提升模型的推理能力,同時具有較好的實用性。DeepSeek-R1 采用模型蒸餾技術,將大模型(教師模型)的推理能力高效遷移到小模型(學生模型)中;模型蒸餾的核心思想是通過教師模型的輸出指導學生模型的訓練
105、,使學生模型能夠模仿教師模型的行為;通過蒸餾技術,小模型能夠保留大模型的大部分性能,DeepSeek-R1 蒸餾后的小模型在多個基準測試中表現出色;DeepSeek-R1 的模型蒸餾技術顯著提升小模型的推理能力,并降低部署成本,有望推動 AI 應用加速落地。圖圖 53:DeepSeek-R1-Zero 的思考時間的思考時間持續持續提升提升以解決推以解決推理任務理任務 圖圖 54:DeepSeek-R1-Zero、R1、蒸餾、蒸餾小模型的開發流程小模型的開發流程圖圖 資料來源:DeepSeek-R1 Technical Report,中原證券研究所 資料來源:機器之心,中原證券研究所 DeepS
106、eek-R1 性能對標性能對標 OpenAI o1。DeepSeek-R1 極大提升了模型推理能力,在數學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。DeepSeek 在開源 DeepSeek-R1-Zero 和 DeepSeek-R1 兩個 660B 模型的同時,通過 DeepSeek-R1 的輸出,蒸餾了 6 個小模型開源給社區,其中 32B 和 70B 模型在多項能力上實現了對標 OpenAI o1-mini 的效果。圖圖 55:DeepSeek-R1 多項評測成績多項評測成績對標對標 OpenAI o1 圖圖 56:DeepSeek-R1 蒸餾蒸餾 32B 和和
107、 70B 模型模型多項評測成績多項評測成績對標對標 OpenAI o1-mini 資料來源:DeepSeek,中原證券研究所 資料來源:DeepSeek,中原證券研究所 DeepSeek 實現大模型訓練與推理實現大模型訓練與推理成本優勢巨大成本優勢巨大,助力,助力 AI 應用大規模落地應用大規模落地。DeepSeek-第 29 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 V3 的訓練成本具有極大的經濟性,根據 DeepSeek-R1 Technical Report 的數據,在預訓練階段,每處理 1 萬億 tokens,訓練 DeepSeek-V3 僅需
108、 18 萬 H800 GPU 小時,即在 2048 塊H800 GPU 的集群上需要 3.7 天;因此,DeepSeek-V3 的預訓練階段在不到兩個月內完成,耗時 266.4 萬(2664K)GPU 小時;加上上下文長度擴展所需的 11.9 萬 GPU 小時和后訓練所需的 5 千 GPU 小時,DeepSeek-V3 的完整訓練僅需 278.8 萬 GPU 小時;假設 H800 GPU的租賃價格為每小時 2 美元,DeepSeek-V3 的總訓練成本僅為 557.6 萬美元。2025 年 1 月20 日 DeepSeek-R1 正式發布,其 API 定價為每百萬輸入 tokens 1 元(緩
109、存命中)/4 元(緩存未命中),每百萬輸出 tokens 16 元;OpenAl o1 定價為每百萬輸入 tokens 55 元(緩存命中)/110 元(緩存未命中),每百萬輸出 tokens 438 元;DeepSeek-R1 API 調用成本不到 OpenAl o1 的 5%。DeepSeek-V3 性能對標 GPT-4o,DeepSeek-R1 性能對標 OpenAI o1,并且 DeepSeek 模型成本優勢巨大,有望推動 AI 應用大規模落地。圖圖 57:DeepSeek-V3 模型性價比處于最優范圍模型性價比處于最優范圍 圖圖 58:DeepSeek-R1 與與 OpenAI o1
110、 類推理模型類推理模型 API 定價定價對比情況(對比情況(2025 年年 1 月月 20 日)日)資料來源:DeepSeek,中原證券研究所 資料來源:DeepSeek,中原證券研究所 DeepSeek 有望有望推動推動推理需求推理需求加速釋放,加速釋放,國產國產 AI 算力芯片算力芯片或持續提升市場份額或持續提升市場份額。隨著大模型的成熟及 AI 應用的不斷拓展,推理場景需求日益增加,推理服務器的占比將顯著提高;IDC 預計 2028 年中國 AI 服務器用于推理工作負載占比將達到 73%。根據的 IDC 數據,2024上半年,中國加速芯片的市場規模達超過 90 萬張,國產 AI 芯片出貨
111、量已接近 20 萬張,約占整個市場份額的 20%;用于推理的 AI 芯片占據 61%的市場份額。DeepSeek-R1 通過技術創新實現模型推理極高性價比,蒸餾技術使小模型也具有強大的推理能力及低成本,將助力 AI應用大規模落地,有望推動推理需求加速釋放。由于推理服務器占比遠高于訓練服務器,在AI 算力芯片進口受限的背景下,用于推理的 AI 算力芯片國產替代空間更為廣闊,國產 AI 算力芯片有望持續提升市場份額。第 30 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 59:2024-2028 年年中國中國 AI 服務器工作負載預測服務器工作負載預測情
112、況情況 資料來源:IDC,2025 中國人工智能計算力發展評估報告,中原證券研究所 國產算力生態鏈全面適配國產算力生態鏈全面適配 DeepSeek,國產,國產 AI 算力芯片廠商有望算力芯片廠商有望加速加速發展發展。DeepSeek大模型得到全球眾多科技廠商的認可,紛紛對 DeepSeek 模型進行支持,國內 AI 算力芯片廠商、CPU 廠商、操作系統廠商、AI 服務器及一體機廠商、云計算及 IDC 廠商等國產算力生態鏈全面適配 DeepSeek,有望加速 AI 應用落地。華為昇騰、沐曦、天數智芯、摩爾線程、海光信息、壁仞科技、寒武紀、云天勵飛、燧原科技、昆侖芯等國產 AI 算力芯片廠商已完成
113、適配 DeepSeek,DeepSeek 通過技術創新提升 AI 算力芯片的效率,進而加快國產 AI 算力芯片自主可控的進程,國產 AI 算力芯片廠商有望加速發展。表表 8:官宣支持官宣支持 DeepSeek 模型的國產模型的國產 AI 芯片企業動態芯片企業動態 公司公司 日期日期 支持情況支持情況 華為 2 月 1 日 首發!硅基流動 x 華為云聯合推出基于昇騰云的 DeepSeek R1&V3 推理服務!沐曦 2 月 1 日 Gitee Al 聯合沐曦首發全套 DeepSeek R1 千問蒸餾模型,全免費體驗!天數智芯 2 月 4 日 一天適配!天數智芯聯合 GiteeAl 正式上線 De
114、epSeek 摩爾線程 2 月 4 日 致敬 DeepSeek:以國產 GPU 為基,燎原中國 AI 生態之火 海光信息 2 月 4 日 DeepSeek V3 和 R1 模型完成海光 DCU 適配并正式上線 壁仞科技 2 月 5 日 DeepSeek R1 在壁仞國產 AI 算力平臺發布,全系列模型一站式賦能開發者創新 太初元碁 2 月 5 日 基于太初 T100 加速卡 2 小時適配 DeepSeek-R1 系列模型 云天勵飛 2 月 5 日 DeepEdge10 已完成 DeepSeek R1 系列模型適配 燧原科技 2 月 6 日 燧原科技實現全國各地智算中心 DeepSeek 的全量
115、推理服務部署 昆侖芯 2 月 6 日 國產 AI 卡 Deepseek 訓練推理全版本適配、性能卓越 靈汐科技 2 月 6 日 靈汐芯片快速實現 DeepSeek 適配,助力國產大模型與類腦智能硬件融合 鯤云科技 2 月 6 日 鯤云科技 CAISA 430 適配 DeepSeek R1 推理,開啟高效 AI 應用新時代 希姆計算 2 月 6 日 希姆計算開源算力全面適配 DeepSeek-R1 開源模型 寒武紀 2 月 6 日 南京智算中心與寒武紀、蘇寧科技合作,成功上線全國產算力版 DeepSeek 算能 2 月 7 日 最佳國產邊緣部署方案!DeepSeek-R1 蒸餾模型已適配 SE7
116、,代碼全開源!清微智能 2 月 7 日 清微智能可重構算力芯片全面適配 DeepSeek 模型推理和訓練 芯動力 2 月 7 日 芯動力神速適配 DeepSeek-R1 大模型,AI 芯片設計邁入“快車道”!墨芯 2 月 7 日 墨芯 S40 計算卡完成 DeepSeek 大模型部署,支持單卡推理大模型 后摩智能 2 月 7 日 開源破局 x 低功耗守護:Deepseek 與存算一體如何演繹 AI 界的哪吒鬧海?第 31 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 瀚博 2 月 8 日 瀚博完成 DeepSeek 全版本訓推適配,單機支持 V3 與 R1
117、 671B 滿血版部署 愛芯元智 2 月 8 日 愛芯分享|基于 AX650N&AX630C 部署 DeepSeek R1 芯瞳 2 月 9 日 芯瞳 GPU 完成與 DeepSeek 的適配,向中國 AI 開發者致敬 進迭時空 2 月 10 日 進迭時空 Bianbu Cloud 成功運行 DeepSeek 本地大模型 江原科技 2 月 11 日 江原科技實現全國產 AI 推理芯片單卡支持 DeepSeek-R1-70B 部署 奕斯偉 2 月 14 日 奕斯偉計算|技術新突破!RISC-V AI SoC 成功適配 DeepSeek 模型計算 資料來源:芯東西,中原證券研究所 4.投資建議投資
118、建議 ChatGPT 熱潮引發全球科技企業加速布局 AI 大模型,谷歌、Meta、百度、阿里巴巴、華為、DeepSeek 等隨后相繼推出大模型產品,并持續迭代升級;北美四大云廠商、國內三大互聯網廠商不斷提升資本開支,國內智算中心加速建設,推動算力需求高速成長。AI 服務器是支持生成式 AI 應用的核心基礎設施,AI 算力芯片為 AI 服務器提供算力的底層支撐,是算力的基石。AI 算力芯片作為“AI 時代的引擎”,有望暢享 AI 算力需求爆發浪潮,并推動 AI 技術的快速發展和廣泛應用。根據芯片的設計方法及應用,AI 算力芯片可分為通用型 AI 芯片和專用型 AI 芯片,當前AI 算力芯片以 G
119、PU 為主流。隨著 AI 算力規模的快速增長將催生更大的 GPU 芯片需求,根據Statista 的數據,2023 年全球 GPU 市場規模為 436 億美元,預計 2029 年市場規模將達到2742 億美元,預計 2024-2029 年復合增速達 33.2%。AI ASIC 是一種專為人工智能應用設計的定制集成電路,具有高性能、低功耗、定制化、低成本等特點。由于英偉達壟斷全球數據中心 GPU 市場,因成本、差異化競爭、創新性、供應鏈多元化等原因,云廠商等大廠自研芯片趨勢明顯,推動數據中心定制 ASIC 芯片市場高速成長,預計增速快于通用 AI 算力芯片。根據 Marvell 的數據,2023
120、 年數據中心定制 ASIC 芯片市場規模約為 66 億美元,預計 2028 年市場規模將達到 429 億美元,預計 2023-2028 年復合增速達 45%。近年來美國不斷加大對高端 GPU 的出口管制,國產 AI 算力芯片廠商迎來黃金發展期。DeepSeek 通過技術創新實現大模型訓練及推理極高性價比,DeepSeek-V3 性能對標GPT-4o,DeepSeek-R1 性能對標 OpenAI o1;根據 DeepSeek 在 2025 年 1 月 20 日公布的數據,DeepSeek-R1 API 調用成本不到 OpenAl o1 的 5%。DeepSeek-R1 實現模型推理極高性價比,
121、將助力 AI 應用大規模落地,并有望推動推理需求加速釋放,用于推理的 AI 算力芯片國產替代空間更為廣闊。國產算力生態鏈已全面適配 DeepSeek,DeepSeek 通過技術創新提升 AI 算力芯片的效率,進而加快國產 AI 算力芯片自主可控的進程,國產 AI 算力芯片廠商有望加速發展,并持續提升市場份額。相關標的相關標的:云端 AI 算力芯片建議關注寒武紀-U(688256)、海光信息(688041),定制ASIC 芯片建議關注芯原股份(688521)、翱捷科技-U(688220),先進制造建議關注中芯國際(688981),先進封裝建議關注長電科技(600584)。第 32 頁/共 48頁
122、 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 4.1.寒武紀寒武紀-U 寒武紀為國內人工智能芯片領先企業,云邊端一體協同發展寒武紀為國內人工智能芯片領先企業,云邊端一體協同發展。公司成立于 2016 年,專注于人工智能芯片產品的研發與技術創新,致力于打造人工智能領域的核心處理器芯片。寒武紀能提供云邊端一體、軟硬件協同、訓練推理融合、具備統一生態的系列化智能芯片產品和平臺化基礎系統軟件。寒武紀基礎軟件系統平臺是公司專門針對其云、邊、端的智能處理器產品打造的軟件開發平臺,采用端云一體、訓推一體架構,可同時支持寒武紀云、邊、端的全系列產品。目前公司產品廣泛服務于大模型算法公司
123、、服務器廠商、人工智能應用公司,為互聯網、云計算、能源、教育、金融、電信、醫療等行業的智能化升級提供支撐。圖圖 60:寒武紀公司產品策略寒武紀公司產品策略 資料來源:公司公告,中原證券研究所 圖圖 61:寒武紀寒武紀基礎軟件系統平臺基礎軟件系統平臺架構圖架構圖 資料來源:公司公告,中原證券研究所 公司擁有四大產品線公司擁有四大產品線。公司的主要產品線包括云端產品線、邊緣產品線、IP 授權及軟件、智能計算集群系統業務。云端產品線目前包括云端智能芯片、加速卡及訓練整機;邊緣計算產品是在終端和云端之間的設備上配備適度的計算能力,一方面可有效彌補終端設備計算能力不足的劣勢,另一方面可緩解云計算場景下數
124、據隱私、帶寬與延時等潛在問題;IP 授權及第 33 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 軟件產品線包括 IP 授權和基礎系統軟件平臺;智能計算集群系統業務是將公司自研的加速卡或訓練整機產品與合作伙伴提供的服務器設備、網絡設備與存儲設備結合,并配備公司的集群管理軟件組成的數據中心集群,其核心算力來源是公司自研的云端智能芯片。2023 年公司云端產品線、邊緣產品線、IP 授權及軟件、智能計算集群系統業務營收占比分別為 12.77%、1.53%、0.03%、85.22%。圖圖 62:2023 年年寒武紀寒武紀產品結構情況產品結構情況 資料來源:公司公告
125、,中原證券研究所 公司營收快速增長,公司營收快速增長,存貨存貨、預付預付款項款項大幅增長大幅增長。根據公司 2024 年業績快報,公司 2024年實現營業收入 11.74 億元,同比增長 65.56%,歸母凈利潤為-4.43 億元,同比虧損收窄47.76%。截至 2024 年三季度末,公司存貨為 10.15 億元,同比增長 310.85%;預付款項為8.54 億元,同比增長 543.95%。公司 2024 年三季度末存貨、預付款項大幅增長,表明國產算力需求旺盛,公司在供應鏈端提前布局,有望推動營收持續增長。圖圖 63:寒武紀寒武紀 2020-2024 年營業收入及增速情況年營業收入及增速情況
126、圖圖 64:寒武紀寒武紀 2020-2024 年年歸母凈利潤歸母凈利潤及增速情況及增速情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 第 34 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 65:寒武紀:寒武紀 2022-2024 年年存貨情況(億元)存貨情況(億元)圖圖 66:寒武紀:寒武紀 2022-2024 年年預付款項預付款項情況(億元)情況(億元)資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司掌握智能芯片與基礎系統軟件核心技術,并持續迭代升級公司掌握智能芯片與基礎系統軟件核心技術,
127、并持續迭代升級。公司在智能芯片領域掌握了智能處理器微架構、智能處理器指令集、SoC 芯片設計、處理器芯片功能驗證、先進工藝物理設計、芯片封裝設計與量產測試、硬件系統設計等七大類核心技術;在基礎系統軟件技術領域掌握了編程框架適配與優化、智能芯片編程語言、智能芯片編譯器、智能芯片數學庫、智能芯片虛擬化軟件、智能芯片核心驅動、云邊端一體化開發環境等七大類核心技術。公司持續進行智能處理器微架構及指令集的迭代,新一代智能處理器微架構及指令集將對自然語言處理大模型、視頻圖像生成大模型以及推薦系統大模型的訓練推理等場景進行重點優化,將在編程靈活性、易用性、性能、功耗、面積等方面提升產品競爭力。公司持續推動訓
128、練軟件平臺及推理軟件平臺的更新和迭代,大力推進大模型業務的適配和優化。圖圖 67:寒武紀寒武紀核心技術框架結構圖核心技術框架結構圖 資料來源:公司公告,中原證券研究所 國產算力需求旺盛,公司有望持續提升市場份額國產算力需求旺盛,公司有望持續提升市場份額。海外云廠商、國內互聯網廠商不斷增加資本開支,國內智算中心加速建設,推動算力需求高速增長,AI 算力芯片市場正處于快速增長之中;根據 Gartner 的數據,2023 年全球 AI 芯片的市場規模為 530 億美元,預計 2024年增長至 671 億美元,預計 2027 年市場規模將達到 1194 億美元,預計 2024-2027 年復合增速達
129、22.5%。AI 算力芯片國產替代需求迫切,寒武紀技術優勢突出,產品品類豐富,有望持續提升市場份額。風險提示風險提示:AI 需求不及預期風險,行業競爭加劇風險,新產品研發進展不及預期,國際第 35 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 地緣政治沖突加劇風險。4.2.海光信息海光信息 海光信息為國產高端處理器海光信息為國產高端處理器領先企業領先企業。海光信息成立于 2014 年,主營業務是高端處理器研發、設計和銷售,主要應用于服務器、工作站等計算、存儲設備中,公司的產品包括海光通用處理器(CPU)和海光協處理器(DCU),海光 CPU 系列產品已經廣
130、泛應用于電信、金融、互聯網、教育、交通等重要行業或領域,海光 DCU 系列產品可廣泛應用于大數據處理、人工智能、商業計算等應用領域。公司的 CPU 和 DCU 產品性能優異,在國內處于領先地位,并不斷提升高端處理器性能。公司擁有浪潮、聯想、新華三、同方等國內知名服務器廠商客戶,公司高端處理器產品廣泛應用于多款服務器,并已經得到了國內行業用戶的高度認可。圖圖 68:海光海光產品族產品族 圖圖 69:海光高性能國產處理器已海光高性能國產處理器已得到眾多得到眾多 OEM 客戶支持客戶支持 資料來源:公司公告,中原證券研究所 資料來源:公司官網,中原證券研究所 公司不斷加大技術研發投入,業績持續高速成
131、長。公司不斷加大技術研發投入,業績持續高速成長。2024 年,公司圍繞通用計算市場,持續保持高強度的研發投入,不斷實現技術創新、產品性能提升,獲得用戶更廣泛認可,進一步拓展了產品的應用領域,加之國產化市場占比進一步提升,促進公司業績顯著增長。公司2024 年實現營收 91.62 億元,同比增長 52.40%;實現歸母凈利潤 19.31 億元,同比增長52.87%;實現扣非凈利潤 18.16 億元,同比增長 59.79%。由于公司產品不斷迭代升級,新產品毛利率提升,公司盈利能力持續提升,2024 年公司實現毛利率 63.72%,同比提升4.05%,2024 年實現凈利率 29.65%,同比提升
132、1.35%。公司持續加大研發投入力度,2024年研發投入 34.46 億元,同比增長 22.63%,研發投入占營業收入比 37.61%,由于營業收入增幅高于研發投入增長,研發投入占營業收入的比例同比有所下降。圖圖 70:海光信息海光信息 2020-2024 年年營收及增速營收及增速情況情況 圖圖 71:海光信息海光信息 2020-2024 年年歸母歸母凈利潤及增速凈利潤及增速情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 第 36 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 72:海光信息海光信息 2020-202
133、4 年年毛利率情況毛利率情況 圖圖 73:海光信息海光信息 2020-2024 年年凈利率情況凈利率情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司公司 CPU 與與 DCU 產品技術領先,生態優勢突出產品技術領先,生態優勢突出。公司是少數幾家同時具備高端通用處理器(CPU)和協處理器(DCU)研發能力的企業,海光 DCU 屬于 GPGPU 的一種。海光CPU 使用先進的處理器微結構和緩存層次結構、高主頻設計技術,依托先進的 SoC 架構和片上網絡,集成了更多處理器核心,使產品性能優勢顯著。海光 DCU 基于大規模并行計算微結構進行設計,具備強大的全精度各種數
134、據格式的算力,片上集成高帶寬內存芯片,可以在大規模數據計算過程中提供優異的數據處理能力,適用于廣泛的應用場景,海光 DCU 能夠支持全精度模型訓練。公司產品采用高帶寬低延時 Chiplet 互聯技術,不斷提升計算性能。海光CPU 兼容 x86 指令集,海光 DCU 兼容“類 CUDA”環境,具有優異的生態系統優勢;公司主動融入國內外開源社區,積極向開源社區提供適用于海光 CPU 及 DCU 的適配和優化方案,保證了海光高端處理器在開源生態的兼容性。公司在金融、電信、交通等國民經濟關鍵領域初步形成了基于海光 CPU 及 DCU 的完善的國產軟硬件生態鏈。圖圖 74:海光海光 DCU 產品擁有完善
135、軟件棧支持產品擁有完善軟件棧支持 資料來源:公司官網,中原證券研究所 人工智能運算加速以人工智能運算加速以 GPGPU 為主要解決方案,大模型有望推動海光為主要解決方案,大模型有望推動海光 DCU 業務保持快速業務保持快速增長增長。由于 GPGPU 具有通用性和軟件生態優勢,人工智能運算加速以 GPGPU 為主要解決方案,AI 將推動國內 GPGPU 市場高速增長。海光 DCU 主要部署在服務器集群或數據中心,支撐高復雜度和高吞吐量的數據處理任務。在 AIGC 持續快速發展的時代背景下,海光 DCU 能夠支持全精度模型訓練,實現了 LLaMa、GPT、Bloom、ChatGLM、悟道、紫東太初
136、等為第 37 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 代表的大模型的全面應用,與國內包括文心一言、通義千問等大模型全面適配,達到國內領先水平,大模型有望推動海光 DCU 業務保持快速增長。圖圖 75:海光產品在大模型的適配與實踐海光產品在大模型的適配與實踐 資料來源:公司公告,中原證券研究所 風險提示風險提示:國際地緣政治沖突加劇風險;行業競爭加劇風險;下游需求不及預期;新產品研發進展不及預期。4.3.芯原股份芯原股份 芯原股份芯原股份為為國內半導體國內半導體 IP 龍頭龍頭企業企業,打造,打造一站式芯片定制一站式芯片定制平臺平臺。芯原是一家依托自主
137、半導體 IP,為客戶提供平臺化、全方位、一站式芯片定制服務和半導體 IP 授權服務的企業?;谧杂械?IP,公司已擁有豐富的面向 AI 應用的軟硬件芯片定制平臺解決方案,涵蓋如智能手表、AR/VR 眼鏡、AI PC、AI 手機、智慧汽車、機器人等端側計算設備,以及數據中心/服務器等高性能云側計算設備?;诠惊氂械男酒O計平臺即服務經營模式,目前公司主營業務的應用領域廣泛包括消費電子、汽車電子、計算機及周邊、工業、數據處理、物聯網等,主要客戶包括芯片設計公司、IDM、系統廠商、大型互聯網公司、云服務提供商等。根據 IPnest的數據,2023 年芯原 IP 授權業務市場占有率位列中國第一,全球
138、第八;2023 年芯原的知識產權授權使用費收入排名全球第六;芯原 IP 種類在全球排名前十的 IP 企業中排名前二。圖圖 76:芯原股份提供的主要服務情況芯原股份提供的主要服務情況 資料來源:公司公告,中原證券研究所 2024 年年公司公司營收基本持平,持續加大研發投入營收基本持平,持續加大研發投入。2024 年上半年,半導體產業逐步復第 38 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 蘇,得益于公司獨特的商業模式,即原則上無產品庫存的風險,無應用領域的邊界,公司自24Q2 起,經營情況快速扭轉,公司 24Q2 營業收入規模同比恢復到受行業周期影響前水
139、平,24Q3 營業收入創歷年三季度收入新高,同比增長 23.60%,24Q4 收入同比增長超 17%,全年營業收入預計基本持平。根據公司 2024 年業績快報,公司 2024 年實現營業收入 23.23 億元,同比下降 0.66%;歸母凈利潤為-6.05 億元,同比增虧;扣非后歸母凈利潤為-6.44 億元,同比增虧。由于在產業下行周期客戶項目短期有所減少,公司較以往加大了研發投入的比重,2024 年研發費用同比增加約 32%。圖圖 77:芯原股份芯原股份 2020-2024 年營業收入情況年營業收入情況 圖圖 78:芯原股份芯原股份 2020-2024 年年歸母凈利潤歸母凈利潤情況情況 資料來
140、源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 圖圖 79:芯原股份:芯原股份 2020-2024 年年毛利率毛利率情況情況 圖圖 80:芯原股份:芯原股份 2020-2024 年年凈利率凈利率情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司公司 IP 儲備豐富,儲備豐富,是中國排名第一的半導體是中國排名第一的半導體 IP 供應商供應商。公司擁有自主可控的圖形處理器 IP(GPU IP)、神經網絡處理器 IP(NPU IP)、視頻處理器 IP(VPU IP)、數字信號處理器 IP(DSP IP)、圖像信號處理器 IP(ISP IP)和顯示
141、處理器 IP(Display Processor IP)這六類處理器 IP,以及 1600 多個數?;旌?IP 和射頻 IP。根據 IPnest 的數據,從半導體 IP 銷售收入角度,芯原是 2023 年中國排名第一、全球排名第八的半導體 IP 授權服務提供商;在全球排名前十的企業中,IP 種類排名前二;2023 年,芯原的知識產權授權使用費收入排名全球第六。隨著后續客戶產品的逐步量產,公司將進一步提升特許權使用費收入,公司 IP 授權業務的規模效應將進一步擴大。第 39 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 公司公司 NPU 及及 GPU IP
142、廣泛應用于廣泛應用于 AI 芯片芯片中中,有望,有望充分受益充分受益 AI 算力需求算力需求爆發浪潮爆發浪潮。芯原的 NPU IP 已被 72 家客戶用于其 128 款人工智能芯片中,集成了芯原 NPU IP 的 AI 類芯片已在全球范圍內出貨超過 1 億顆,主要應用于物聯網、可穿戴設備、智慧電視、智慧家居、安防監控、服務器、汽車電子、智能手機、平板電腦、智慧醫療等領域,奠定了公司在 AI 領域全球領先的根基。芯原 GPU IP 已經耕耘嵌入式市場近 20 年,在多個市場領域中獲得了客戶的采用,包括數據中心、汽車電子、可穿戴設備、PC 等,內置芯原 GPU 的客戶芯片已在全球范圍內出貨近 20
143、 億顆。芯原 GPU 還可以和公司自主知識產權的神經網絡處理技術融合,支持圖形渲染、通用計算以及 AI 處理,為數據中心、云游戲、邊緣服務器提供大算力通用處理器平臺。公司自主知識產權的通用圖形處理器(GPGPU)可以支持大規模通用計算和生成式 AI 相關應用,現已被客戶采用部署至各類高性能 AI 芯片中,面向數據中心、高性能計算、汽車等應用領域。公司在 AI 領域全球領先,NPU 及 GPU IP 廣泛應用于 AI 芯片中,有望充分受益 AI 算力需求爆發浪潮。公司具有全球領先的芯片設計服務能力公司具有全球領先的芯片設計服務能力,云廠商云廠商等等大廠自研芯片大廠自研芯片有望有望為公司業務為公司
144、業務發展打發展打開新的成長空間開新的成長空間。在一站式芯片定制服務方面,芯原擁有從先進 5nm FinFET、22nm FD-SOI 到傳統 250nm CMOS 制程的設計能力,所掌握的工藝可涵蓋全球主要晶圓廠的主流工藝、特殊工藝等,已擁有 14nm/10nm/7nm/6nm/5nm FinFET 和 28nm/22nm FD-SOI 工藝節點芯片的成功流片經驗。為滿足面向汽車應用的定制芯片的特殊要求,公司的芯片設計流程已獲得 ISO 26262 汽車功能安全管理體系認證。公司還推出了功能安全(FuSa)SoC 平臺的總體設計流程,以及基于該平臺的 ADAS 功能安全方案,并搭建了完整的自動
145、駕駛軟件平臺框架。芯原一站式芯片定制服務業務擁有英特爾、博世、恩智浦、亞馬遜、谷歌、微軟等優質客戶,整體市場認可度不斷提高,競爭優勢持續增強。近年來,云廠商、互聯網廠商、系統廠商因成本、差異化競爭、創新性、掌握核心技術、供應鏈可控等原因,越來越多地開始設計自有品牌的芯片,大廠自研芯片趨勢明顯,有望為公司芯片設計服務及 IP 授權業務的發展打開新的成長空間。風險提示風險提示:半導體 IP 技術迭代不及預期風險;行業競爭加劇風險;下游需求不及預期;國際地緣政治沖突加劇風險。4.4.翱捷科技翱捷科技-U 翱捷科技為國內翱捷科技為國內提供提供無線通信、超大規模芯片無線通信、超大規模芯片的的平臺型平臺型
146、芯片芯片企業企業。公司成立于 2015 年,專注于無線通信芯片的研發和技術創新,是一家提供無線通信、超大規模芯片的平臺型芯片企業。公司同時擁有 2G/3G/4G/5G 全制式蜂窩基帶芯片及多協議非蜂窩物聯網芯片研發設計實力,且具備提供超大規模高速 SoC 芯片定制及半導體 IP 授權服務能力。公司產品及服務包含芯片產品、芯片定制服務及半導體 IP 授權,廣泛應用于智能手機、智能可穿戴設備、智能支付、智能家居、車聯網、智能支付、工業物聯網、智慧安防、智能電網、人工智能等領域。第 40 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 81:翱捷科技翱捷科技
147、公司產品及服務應用領域公司產品及服務應用領域 資料來源:公司公告,中原證券研究所 公司公司 2024 年年營收營收實現實現高速增長高速增長,股權激勵費用,股權激勵費用增加等因素影響凈利潤增加等因素影響凈利潤。2024 年,公司芯片產品持續迭代,產品系列日趨豐富,競爭優勢彰顯;公司繼續加大市場開拓力度,尤其是在蜂窩物聯網某些細分市場取得突破,芯片銷量大幅攀升,帶動公司營收實現較大幅度同比增長;由于股權激勵形成的股份支付費用同比大幅增加,再加上非經常性收益減少,各項減值計提增多,導致公司虧損額較上年同期有所擴大。根據公司 2024 年業績快報,2024 年公司實現營業收入 33.86 億元,同比增
148、長 30.23%;歸母凈利潤為-6.87 億元,同比增虧;扣非后歸母凈利潤為-6.92 億元,同比增虧。圖圖 82:翱捷科技:翱捷科技 2020-2024 年營業收入情況年營業收入情況 圖圖 83:翱捷科技:翱捷科技 2020-2024 年年歸母凈利潤歸母凈利潤情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 第 41 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司請閱讀最后一頁各項聲明 圖圖 84:翱捷科技:翱捷科技 2020-2024 年年毛利率毛利率情況情況 圖圖 85:翱捷科技:翱捷科技 2020-2024 年年凈利率凈利率情況情況 資料來源
149、:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司公司掌握掌握全制式蜂窩基帶技術全制式蜂窩基帶技術及及多種非蜂窩多種非蜂窩無線通信技術,無線通信技術,具有極高的技術壁壘具有極高的技術壁壘。蜂窩基帶技術涵蓋信號處理、高性能模擬/射頻電路、通信協議棧、低功耗電路設計等多個方面,是芯片設計領域最先進、最難掌握的技術之一,技術壁壘極高,全球范圍內目前只有極少數公司具備這個能力。翱捷科技的蜂窩基帶技術已經全面覆蓋 2G-5G 全制式,是國內極少數具備開發 5G 基帶通信芯片實力的企業。公司聚焦于各類無線通信技術,持續進行大額研發投入,公司還掌握 WiFi、藍牙、LoRa、全球導航定位等
150、多種非蜂窩無線通信技術,構建起豐富、完整的無線通信芯片研發體系,在信號處理、高性能模擬/射頻電路、通信協議棧、低功耗電路設計等多個方面擁有了大量的自研 IP,公司掌握了超大規模數?;旌霞呻娐?、射頻芯片、基帶射頻一體化集成技術及超低功耗 SoC 芯片設計等多項核心設計技術。公司深耕蜂窩基帶及非蜂窩物聯網市場,芯片出貨量高速增長公司深耕蜂窩基帶及非蜂窩物聯網市場,芯片出貨量高速增長。公司持續深耕蜂窩基帶及非蜂窩物聯網市場,各產品系列不斷迭代和豐富化,市場觸角更深更廣。2024 年上半年,公司蜂窩基帶主芯片銷售數量同比增長超過 80%,非蜂窩物聯網芯片銷量同比增長超過70%;在智能可穿戴市場,公司
151、積極布局新項目研發,在通信、續航、集成度、算法等方面持續取得突破;智能 Android 手表憑借芯片的高集成度和低功耗優勢,已實現量產;兒童手表在全球市場表現強勁,與以飛利浦為代表的多個品牌商建立更深度的合作,進一步擴大市場份額;成人手表同各地主流品牌商深化合作,在歐洲、拉丁美洲和東南亞市場表現活躍。智能手機市場空間廣闊,公司在智能手機領域實現突破智能手機市場空間廣闊,公司在智能手機領域實現突破。根據 Canalys 的數據,2024 年全球智能手機出貨量達到 12.2 億部,同比增長 7%,實現了在連續兩年下滑后的反彈;2024年中國大陸智能手機市場出貨量達 2.85 億臺,同比增長 4%。
152、公司首款智能手機芯片 ASR8601 攜手 Logicmobility L65A 手機,首秀登陸拉丁美洲市場;該芯片采用 Arm Cortex-A55 處理器,支持包括 FDD/TDD LTE/GSM/EDGE/WCDMA 多制式蜂窩通信,支持 Volte,向用戶提供高質量、更自然的語音通話效果以及更流暢的移動網絡體驗;自研 Camera 硬件 3D 降噪算法令用戶即使在暗光下依舊保持高清晰度的錄像和拍照效果,美顏算法在 GPU 的加持下呈現效果更好,速度更快。在拉丁美洲市場的成功出貨是公司全球化戰略的重要一步,也是公司智能手機業務長期發展的堅實基礎。公司已為多家公司已為多家 AI 企業企業定
153、制定制 ASIC 芯片芯片,大型芯片設計能力得到大量客戶的認可,大型芯片設計能力得到大量客戶的認可。芯片定第 42 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司請閱讀最后一頁各項聲明 制服務是指根據客戶的需求,為客戶設計專門定制化的芯片。該服務面對的主要客戶包括人工智能算法企業、互聯網企業、大數據企業、工業控制類企業等。公司擁有強大的平臺級芯片設計能力,能為客戶提供芯片架構定義、芯片設計、封裝測試、量產可靠性認證、量產運營及配套軟件開發的全套解決方案,滿足其對特定芯片的定制化需求,提高產品競爭力。公司已為登臨科技、美國 Moffett 等多家 AI 企業提供芯片定制服務,公司成熟
154、的大型芯片設計能力得到諸多行業頭部客戶的認可。2024 年上半年,公司芯片定制業務實現營收 2.34 億元,同比增長 97.71%。在 IP 授權業務方面,完成對多個客戶的高端多媒體 IP 授權和高性能模擬 IP 授權,取得了良好的經濟效益,24H1 公司 IP 授權業務實現營收 5377.30 萬元,同比增長125.87%。風險提示風險提示:行業競爭加劇風險;新產品研發進展不及預期風險;下游需求不及預期。4.5.中芯國際中芯國際 中芯國際中芯國際為為中國大陸中國大陸晶圓代工晶圓代工龍頭龍頭企業企業。公司成立于 2000 年,主要為客戶提供基于多種技術節點、不同工藝平臺的集成電路晶圓代工及配套
155、服務。公司是全球領先的集成電路晶圓代工企業之一,也是中國大陸集成電路制造業的領導者,擁有領先的工藝制造能力、產能優勢和服務配套;根據全球各純晶圓代工企業最新公布的 2024 年銷售額情況,中芯國際位居全球第二,在中國大陸企業中排名第一。公司建立全球化的服務基地與運營網絡,已在上海、北京、天津、深圳建設多座 8 英寸及 12 英寸晶圓廠;公司成功開發了 0.35 微米至 14 納米多種技術節點,應用于不同工藝平臺,具備邏輯電路、電源/模擬、高壓驅動、嵌入式非揮發性存儲、非易失性存儲、混合信號/射頻、圖像傳感器等多個工藝平臺的量產能力,可為客戶提供通訊產品、消費品、汽車、工業、計算機等不同終端應用
156、領域的集成電路晶圓代工及配套服務。圖圖 86:中芯國際:中芯國際產品及服務產品及服務情況情況 圖圖 87:中芯國際擁有豐富的產品平臺:中芯國際擁有豐富的產品平臺 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 2024 年年公司公司營收營收創歷史新高創歷史新高,并持續加大研發投入并持續加大研發投入。2024 年,半導體市場整體呈現復蘇態勢,智能手機、個人電腦、消費電子等終端產品市場逐步企穩回升,智能穿戴、物聯網設備等新興市場需求持續擴張,成為推動半導體行業增長的重要力量。在整體處于行業上行周期的大環境下,公司把握日益增長的在地制造需求,通過快速識別客戶市場份額的增量品類
157、,積第 43 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 極主動地響應客戶需求變化,及時調整產品組合,并聚焦技術創新和工藝優化,推動公司營收創歷史新高。2024 年,公司實現營業收入 577.96 億元,同比增長 27.7%;實現歸母凈利潤36.99 億元,同比下降 23.31%;實現毛利率為 18.59%,同比下降 3.3%;實現凈利率為9.30%,同比下降 4.84%。公司持續加大研發投入,2024 年公司研發投入達 54.5 億元,同比增長 9.1%,占營業收入比例為 9.4%。圖圖 88:中芯國際中芯國際 2020-2024 年營業收入情況年營業
158、收入情況 圖圖 89:中芯國際中芯國際 2020-2024 年年歸母凈利潤歸母凈利潤情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 圖圖 90:中芯國際中芯國際 2020-2024 年年毛利率毛利率情況情況 圖圖 91:中芯國際中芯國際 2020-2024 年年凈利率凈利率情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司下游應用領域以消費類為主,公司下游應用領域以消費類為主,12 英寸晶圓銷售占比較高英寸晶圓銷售占比較高。在下游應用領域方面,2024 年公司智能手機收入占比 28%,電腦與平板占比 16%,消費電子占比 3
159、8%,互聯與可穿戴占比 10%,工業與汽車占比 8%。2024 年公司 12 英寸晶圓銷售收入占比 77%,8 英寸晶圓占比 23%。第 44 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 92:中芯國際中芯國際 2024 年年下游應用領域占比下游應用領域占比情況情況 圖圖 93:中芯國際中芯國際 2024 年年晶圓銷售按尺寸占比晶圓銷售按尺寸占比情況情況 資料來源:公司公告,中原證券研究所 資料來源:公司公告,中原證券研究所 公司具備中國大陸最為領先的先進制程技術,有望公司具備中國大陸最為領先的先進制程技術,有望充分充分受益于受益于 AI 算力芯片
160、國產化浪潮算力芯片國產化浪潮。近年來美國對半導體先進制造、先進制程半導體設備、先進計算芯片等出口管制不斷升級,2025 年 1 月,美國 BIS 更新了半導體出口管制措施,針對于先進邏輯集成電路是采用“16nm/14nm 節點”及以下工藝、或采用非平面晶體管架構生產的邏輯集成電路,采取更多審查和規范;在此背景下,中國大陸芯片廠商獲取先進制程的難度逐步加大。在先進制程領域,中芯國際具備中國大陸最為領先的先進制程技術,是中國大陸第一家實現 14 納米FinFET 量產的晶圓代工企業,也是國內極為稀缺的先進制程晶圓代工廠;AI 算力需求旺盛,AI 算力芯片國產替代加速推進,公司有望充分受益于 AI
161、算力芯片國產化浪潮。圖圖 94:中芯國際中芯國際關鍵技術節點的量產時間關鍵技術節點的量產時間 資料來源:公司公告,中原證券研究所 風險提示風險提示:國際地緣政治沖突加劇風險;擴大產能不及預期風險;下游需求不及預期。4.6.長電科技長電科技 長電科技長電科技為中國大陸為中國大陸封測封測龍頭龍頭企業企業。公司成立于 1972 年,是全球領先的集成電路制造與技術服務提供商,向全球半導體客戶提供全方位的芯片成品制造一站式服務,涵蓋微系統集成、設計仿真、晶圓中測、芯片及器件封裝、成品測試、產品認證以及全球直運等服務。公司在中國、韓國及新加坡設有八大生產基地和兩大研發中心,在 20 多個國家和地區設有業務
162、機構,可與全球客戶進行緊密的技術合作并提供高效的產業鏈支持。通過高集成度的晶圓級WLP、2.5D/3D、系統級(SiP)封裝技術和高性能的 Flip Chip 和引線互聯封裝技術,長電科技的產品、服務和技術涵蓋了主流集成電路系統應用,包括網絡通訊、移動終端、高性能計第 45 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 算、汽車電子、大數據存儲、人工智能與物聯網、工業智造等領域。根據芯思想研究院(ChipInsights)發布的 2023 年全球委外封測(OSAT)榜單,長電科技營收在全球前十大OSAT 廠商中排名第三,中國大陸第一。圖圖 95:長電科技生
163、產長電科技生產及研發基地全球布局及研發基地全球布局 資料來源:長電科技官網,中原證券研究所 24Q3 單季度營收創歷史新高,產品結構變化等因素影響短期毛利率單季度營收創歷史新高,產品結構變化等因素影響短期毛利率。2024 年以來,公司旗下工廠運營回升,產能利用率持續提升,各應用板塊業務均實現復蘇企穩,通訊、消費、運算及汽車電子四大應用前三季度收入同比增幅均達雙位數;2024 年前三季度公司實現營收249.78 億元,同比增長 22.26%,歸母凈利潤 10.76 億元,同比增長 10.55%;2024 年三季度單季公司實現營收 94.91 億元,同比增長 14.95%,環比增長 9.80%,歸
164、母凈利潤 4.57 億元,同比下降 4.39%,環比下降 5.57%,公司三季度營收創歷史新高。由于公司產品結構變化等因素影響短期毛利率,公司 2024 年前三季度實現毛利率為 12.93%,同比下降 0.94%,24Q3 毛利率為 12.23%,同比下降 2.13%,環比下降 2.05%;公司 2024 年前三季度實現凈利率為 4.29%,同比下降 0.48%,24Q3 凈利率為 4.78%,同比下降 1.01%,環比下降0.81%。圖圖 96:長電科技長電科技單季度單季度營收及增速營收及增速情況情況 圖圖 97:長電科技長電科技單季度歸母單季度歸母凈利潤及增速凈利潤及增速情況情況 資料來源
165、:Wind,中原證券 資料來源:Wind,中原證券 第 46 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 圖圖 98:長電科技長電科技單季度毛利率和凈利率情況單季度毛利率和凈利率情況 圖圖 99:長電科技長電科技 24H1 下游應用領域占比情況下游應用領域占比情況 資料來源:Wind,中原證券 資料來源:Wind,中原證券 聚焦高性能先進封裝,有望推動公司業績持續增長聚焦高性能先進封裝,有望推動公司業績持續增長。在高性能先進封裝領域,公司推出的 XDFOI Chiplet 高密度多維異構集成系列工藝已按計劃進入穩定量產階段,該技術是一種面向 Chiple
166、t 的極高密度、多扇出型封裝高密度異構集成解決方案,其利用協同設計理念實現了芯片成品集成與測試一體化,涵蓋 2D、2.5D、3D 集成技術,公司持續推進其多樣化方案的研發及生產。經過持續研發與客戶產品驗證,公司 XDFOI 技術不斷取得突破,已在高性能計算、人工智能、5G、汽車電子等領域應用,為客戶提供了外型更輕薄、數據傳輸速率更快、功率損耗更小的芯片成品制造解決方案,滿足日益增長的終端市場需求。公司聚焦高性能先進封裝,強化創新升級,隨著半導體行業景氣度的回暖,有望推動業績持續增長。圖圖 100:長電科技長電科技 XDFOI Chiplet 解決方案解決方案 資料來源:長電科技官網,中原證券研
167、究所 收購晟碟半導體完成交割,提升公司存儲器封測全球競爭力收購晟碟半導體完成交割,提升公司存儲器封測全球競爭力。公司收購晟碟半導體(上海)有限公司 80%股權已于 2024 年 9 月 28 日完成交割,并于交割當日將其納入公司合并范圍。根據 TrendForce 的數據,2024 年第二季度三星、SK 海力士、鎧俠、美光分別以36.9%、22.1%、13.8%、11.8%的市占率排名全球 NAND Flash 市場前四,西部數據以10.5%的市占率位列全球第五名;晟碟半導體母公司為西部數據,晟碟半導體在 NAND Flash封測方面具有較強的技術優勢,產品廣泛應用于移動通信、工業與物聯網、汽
168、車、智能家居及消費終端等領域。通過收購晟碟半導體,將擴大公司在存儲及運算電子領域的市場份額,并與客戶建立起更緊密的戰略合作關系,提升公司在存儲器封測領域的全球競爭力,為公司在全球存儲器市場的持續發展和領先地位奠定堅實基礎。風險提示風險提示:行業競爭加??;下游需求復蘇不及預期;新技術研發進展不及預期。第 47 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司 請閱讀最后一頁各項聲明 5.風險提示風險提示(1)國際地緣政治沖突加劇風險國際地緣政治沖突加劇風險。半導體產業鏈具有全球化的特點,國內廠商需要進口部分半導體設備及零部件、材料等,也需要通過境外晶圓廠進行芯片代工,如果國際地緣政治沖
169、突進一步加劇,將會導致部分國內公司采購設備、原材料、產品生產受到限制,進而影響公司的經營業績。(2)下游需求不及預期風險下游需求不及預期風險。AI 算力芯片下游主要應用于云計算與數據中心、邊緣計算、消費類電子、智能制造、智能駕駛、智慧金融、智能教育等領域,因此不可避免地受到宏觀經濟波動的影響,如果下游需求持續低迷,進而會影響產業鏈公司的經營業績。(3)市場競爭加劇風險市場競爭加劇風險。近年來隨著人工智能應用及算法的逐步普及,AI 算力芯片受到了多家芯片設計龍頭企業的重視,AI 領域也成為眾多初創芯片設計公司發力的重點。隨著越來越多的廠商推出 AI 算力芯片產品,市場競爭將日趨激烈,將會對該領域
170、內公司經營業績廠商較大影響。(4)新產品新產品研發進展不及預期風險研發進展不及預期風險。AI 算力芯片行業新產品和新技術更新迭代較快,國內 AI 算力芯片產業鏈公司均需要不斷進行研發創新,如果未來國內公司核心技術升級迭代進度和成果未達預期,致使技術水平落后于行業升級換代水平,或者技術創新產品不能契合客戶需求,將影響產品競爭力并錯失市場發展機會,對國內公司未來業務發展造成不利影響。(5)國產替代進展國產替代進展不及預期風險不及預期風險。目前國內 AI 算力芯片國產化率仍相對較低,國內廠商在加速進行國產替代,但由于 AI 算力芯片生態體系壁壘較高,對國內廠商的技術積累、人才、資金等方面都有較高要求
171、,可能會影響到國產化進度。第 48 頁/共 48頁 半導體 本報告版權屬于中原證券股份有限公司請閱讀最后一頁各項聲明 行業投資評級行業投資評級 強于大市:未來 6 個月內行業指數相對滬深 300 漲幅 10以上;同步大市:未來 6 個月內行業指數相對滬深 300 漲幅10至 10之間;弱于大市:未來 6 個月內行業指數相對滬深 300 跌幅 10以上。公司投資評級公司投資評級 買入:未來 6 個月內公司相對滬深 300 漲幅 15以上;增持:未來 6 個月內公司相對滬深 300 漲幅 5至 15;謹慎增持:未來 6 個月內公司相對滬深 300 漲幅10至 5;減持:未來 6 個月內公司相對滬深
172、 300 漲幅15至10;賣出:未來 6 個月內公司相對滬深 300 跌幅 15以上。證券分析師承諾證券分析師承諾 本報告署名分析師具有中國證券業協會授予的證券分析師執業資格,本人任職符合監管機構相關合規要求。本人基于認真審慎的職業態度、專業嚴謹的研究方法與分析邏輯,獨立、客觀的制作本報告。本報告準確的反映了本人的研究觀點,本人對報告內容和觀點負責,保證報告信息來源合法合規。重要聲明重要聲明 中原證券股份有限公司具備證券投資咨詢業務資格。本報告由中原證券股份有限公司(以下簡稱“本公司”)制作并僅向本公司客戶發布,本公司不會因任何機構或個人接收到本報告而視其為本公司的當然客戶。本報告中的信息均來
173、源于已公開的資料,本公司對這些信息的準確性及完整性不作任何保證,也不保證所含的信息不會發生任何變更。本報告中的推測、預測、評估、建議均為報告發布日的判斷,本報告中的證券或投資標的價格、價值及投資帶來的收益可能會波動,過往的業績表現也不應當作為未來證券或投資標的表現的依據和擔保。報告中的信息或所表達的意見并不構成所述證券買賣的出價或征價。本報告所含觀點和建議并未考慮投資者的具體投資目標、財務狀況以及特殊需求,任何時候不應視為對特定投資者關于特定證券或投資標的的推薦。本報告具有專業性,僅供專業投資者和合格投資者參考。根據 證券期貨投資者適當性管理辦法相關規定,本報告作為資訊類服務屬于低風險(R1)
174、等級,普通投資者應在投資顧問指導下謹慎使用。本報告版權歸本公司所有,未經本公司書面授權,任何機構、個人不得刊載、轉發本報告或本報告任何部分,不得以任何侵犯本公司版權的其他方式使用。未經授權的刊載、轉發,本公司不承擔任何刊載、轉發責任。獲得本公司書面授權的刊載、轉發、引用,須在本公司允許的范圍內使用,并注明報告出處、發布人、發布日期,提示使用本報告的風險。若本公司客戶(以下簡稱“該客戶”)向第三方發送本報告,則由該客戶獨自為其發送行為負責,提醒通過該種途徑獲得本報告的投資者注意,本公司不對通過該種途徑獲得本報告所引起的任何損失承擔任何責任。特別聲特別聲明明 在合法合規的前提下,本公司及其所屬關聯機構可能會持有報告中提到的公司所發行的證券頭寸并進行交易,還可能為這些公司提供或爭取提供投資銀行、財務顧問等各種服務。本公司資產管理部門、自營部門以及其他投資業務部門可能獨立做出與本報告意見或者建議不一致的投資決策。投資者應當考慮到潛在的利益沖突,勿將本報告作為投資或者其他決定的唯一信賴依據。