《AI服務器行業深度:驅動因素、競爭格局、產業鏈及相關公司深度梳理-250120(38頁).pdf》由會員分享,可在線閱讀,更多相關《AI服務器行業深度:驅動因素、競爭格局、產業鏈及相關公司深度梳理-250120(38頁).pdf(38頁珍藏版)》請在三個皮匠報告上搜索。
1、 1/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 行業研究報告 慧博智能投研 AI服務器服務器行業深度:驅動因素、行業深度:驅動因素、競爭格局競爭格局、產業鏈及相關公司深度梳理產業鏈及相關公司深度梳理 隨著全球生成式 AI 技術的迅猛發展,AI 服務器作為算力的關鍵基礎設施,正迎來前所未有的發展機遇。AI 服務器憑借其強大的并行處理能力和高效的異構計算架構,成為滿足大規模數據處理、模型訓練和推理計算需求的核心設備。從大模型訓練到多模態 AI 應用的興起,算力需求的激增推動了 AI 服務器市場的快速增長。同時,政策支持、技術升級以及產業鏈的不斷完善,進一步加
2、速了行業的變革與發展。無論是上游的芯片、存儲、PCB 等零部件供應商,還是中游的 ODM 與品牌服務器廠商,亦或是下游的互聯網巨頭、云服務提供商等應用市場,整個 AI 服務器產業鏈都在這一浪潮中展現出巨大的潛力與活力。本文將聚焦于 AI 服務器,對其行業進行全面的概述,并分析推動 AI 服務器發展的關鍵因素。同時,我們將根據最新的市場動態,探討 AI 服務器產業鏈發生的變革。此外,本文還將分析當前的市場格局,并列舉在該領域活躍的相關公司。希望通過這些內容的闡述,能夠加深大家對 AI 服務器行業的認識和理解。目錄目錄 一、行業概述.1 二、驅動因素.3 三、AI 服務器制造及動態.8 四、產業鏈
3、分析.13 五、市場格局及預測.29 六、相關公司.31 七、參考研報.37 一、行業一、行業概述概述 1、AI 服務器定義及架構服務器定義及架構 AI 時代來臨,服務器性能面臨挑戰。時代來臨,服務器性能面臨挑戰。服務器是一種高性能計算機,作為網絡的節點,存儲、處理網絡上 80的數據。服務器比普通計算機運行更快、負載更高、價格更貴,具有高速 CPU 運算能力、更高的可靠性、更強的 I/O 外部數據吞吐能力以及更好的擴展性。服務器內部結構與普通計算機相差不大,都是由 CPU、硬盤、內存、系統、系統總線等部分組成,按應用場景分類可分成存儲服務器、云服務器、AI 服務器和邊緣服務器。通用型服務器主要
4、以 CPU 為算力來源,優化了單線程性能和通用計算任務,而非針對并行處理,主要采用提高核心數來提升算力。隨著 AI 技術的發展,數據量呈幾何倍增長,需要大量并行處理能力來訓練和推理,導致通用型服務器難以滿足日益增長的算力需求。2/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 服務器是指專為人工智能應用設計的高性能計算機設備。服務器是指專為人工智能應用設計的高性能計算機設備。相較于通用型服務器,AI 服務器有以下特點:1)硬件架構:AI 服務器采用異構計算架構,通過異構形式適應不同應用范圍以及提升服務器的數據處理能力,異構方式包括 CPU+GPU/TPU
5、/ASIC/FPGA,目前廣泛使用的 AI 服務器為 CPU+GPU;2)GPU 數量:通用型服務器一般采用一個或兩個 GPU,AI 服務器需要承擔大量的計算,一般配置四塊GPU 以上;3)設計不同:AI 服務器由于有多個 GPU,需要針對系統結構、散熱、拓撲等做專門設計。以上特點使得 AI 服務器擁有更強的并行處理能力、更快的處理速度和更大的存儲空間,能夠支持大規模數據處理、模型訓練、推理計算等復雜任務。2、AI 服務器服務器分類分類 目前,目前,AI 服務器產品種類較多。服務器產品種類較多。按應用場景分,按應用場景分,AI 服務器分為訓練和推理兩種。服務器分為訓練和推理兩種。它既可以用來支
6、持本地應用程序和網頁,也可以為云和本地服務器提供復雜的 AI 模型和服務。AI 服務器有助于為各種實時AI 應用提供實時計算服務。AI 服務器按應用場景可分為訓練和推理兩種,訓練對芯片算力要求更高,推理對算力的要求偏低。推理負載占比有望持續提升。3/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 服務器采用異構形式,按芯片類型可分為 CPU+GPU、CPU+FPGA、CPU+ASIC 等組合。目前 GPU依然是實現數據中心加速的首選,其他非 GPU 芯片應用逐漸增多。二、驅動因素二、驅動因素 1、大模型推動全球算力需求激增,算力廠商迎來發展機遇、大模型推
7、動全球算力需求激增,算力廠商迎來發展機遇 ScalingLaws:大模型訓練的重要指導法則,規模越大模型效果越優。:大模型訓練的重要指導法則,規模越大模型效果越優。據 OpenAI 發布的論文Scaling laws for neural language models,模型性能極大依賴訓練規模,模型參數、數據集大小以及用于訓練的計算量增加可以達到減少模型損失,增加大模型性能的效果。4/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 “涌現涌現”能力:隨著訓練規模不斷增大,大模型將產生質變。能力:隨著訓練規模不斷增大,大模型將產生質變。據Emergent Ab
8、ilities of Large Language Models,隨著模型規模的擴大,語言模型表現出的新的、不可預測的能力。這些新能力在中小模型上線性放大都得不到線性的增長,但在模型規模突破一定閾值時突然出現?!坝楷F”能力反映了系統行為質的變化,這種變化不能簡單地通過觀察或分析較小規模模型的性能來預測。以以 AIGC 為代表的人工智能應用、大模型訓練等需求興起,推動全球算力需求快速增長。為代表的人工智能應用、大模型訓練等需求興起,推動全球算力需求快速增長。全球算力需求飆升主要基于以下原因:1)模型能力提升依賴更大的訓練數據量和參數量,對應更高的算力需求;2)AI 模型的發展方向轉向多模態,訓練
9、模型的數據從單一文字數據發展到目前的圖片、視頻數據,均需要更強的算力處理;3)模型種類多樣化(文生圖、文生視頻)以及新推出的模型數量激增,均推動算力需求的增長,以 AIGC 為代表的 AI 應用用戶數量爆發,推理側算力需求快速增長。5/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 模型參數迅速提升,算力競爭愈演愈烈。模型參數迅速提升,算力競爭愈演愈烈。近年來新推出的大語言模型所使用的數據量和參數規模呈現指數級增長,GPT3 模型參數約為 1750 億,GPT-4 參數量達 1.8 萬億,國內目前公布的大模型參數規模也普遍在百億至千億級別,未來的算力競賽還將持
10、續。算力需求催化投資,算力廠商率先受益。算力需求催化投資,算力廠商率先受益。根據李飛飛團隊發布的人工智能指數報告估算,OpenAI的 GPT-4 使用了價值約 7800 萬美元的計算資源進行訓練,而谷歌的 GeminiUltra 耗費了 1.9 億美元的 6/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 計算成本,2024 年 3 月,微軟和 OpenAI 宣布計劃投資 1000 億美元打造星際之門 AI 超算,全球算力投資迅速提升,算力廠商或將率先受益。2、以以 AI 服務器為代表的全球智能算力需求激增服務器為代表的全球智能算力需求激增 算力可分為通用算力
11、、智能算力以及超算算力:1)通用算力:由基于 CPU 的服務器提供算力,主要用于基礎通用計算;2)智能算力:由基于 GPU、FPGA、ASIC 等 AI 芯片的加速計算平臺提供的算力,主要用于人工智能訓練和推理計算;3)超算算力:由超級計算機等高性能計算集群提供算力,主要用于尖端科學領域的計算。早期通用算力占整體算力的比重達 90%以上,隨著人工智能技術的發展,智能算力規模迅速增長。IDC 預期,2023 年中國智能算力規模達 414.1EFLOPS,至 2027 年將達1117.4EFLOPS。據中國信息通信研究院預期,2030 年全球智能算力規模將達 52.5ZFLOPS。受益于智能算力市
12、場的推動,全球受益于智能算力市場的推動,全球 AI 服務器市場規模實現快速增長。服務器市場規模實現快速增長。據 TrendForce 數據,預計 2024年全球 AI 服務器市場規模為 1870 億美金,同比+69%;從服務器占比來看,預計 24 年 AI 服務器占比 7/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 為 12.2%(出貨量維度),同比+3.4 個 pct。2023 年 AI 服務器出貨量 118 萬臺,至 2026 年 AI 服務器出貨量將至 237 萬臺,對應 23-26 年 CAGR 為 26.05%。假設單臺 AI 服務器價值量為 2
13、5 萬美金,則26 年 AI 服務器市場規模為 5922.5 億美金。3、政策支持亦將拉動中國、政策支持亦將拉動中國 AI 服務器市服務器市場規模增長場規模增長 政策政策+需求拉動中國需求拉動中國 AI 服務器市場規模增長。服務器市場規模增長。在當前數字經濟時代背景下,國家出臺多個政策支持 AI產業發展,AI 服務器行業保持快速增長。相關企業加速布局以及人工智能應用場景的逐步落地,算力需求量快速增長,AI 服務器在服務器整體市場中比重提高。中國的企業和研究機構積極進行人工智能服務器的技術研發和創新,包括高性能處理器、大容量內存、高速存儲器和高效冷卻系統等領域的創新,以滿足計算能力和數據處理速度
14、的需求。中國中國 AI 服務器市場規模同樣將實現快速增長,服務器市場規模同樣將實現快速增長,AI 服務器工作負載將由訓練逐步過渡到推理。服務器工作負載將由訓練逐步過渡到推理。據 IDC數據,2023 年中國 AI 服務器出貨量達 32.2 萬臺,預計到 2027 年將達到 80.9 萬臺,對應 CAGR 達25.9%;對應到 2023 年 AI 服務器市場規模為 60.8 億美元,預計到 2027 年將達到 134 億美元,對應CAGR 達 21.8%。從工作負載來看,2023 年訓練服務器占比達 58.7%。隨著訓練模型的完善與成熟,模型和應用產品逐步進入投產模式,處理推理工作負載的人工智能
15、服務器占比將隨之攀升,到 2027 年,用于推理的工作負載將達到 72.6%。8/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 三三、AI 服務器服務器制造制造及動態及動態 1、AI 服務器制造廠商服務器制造廠商 AI 服務器制造參與廠商眾多,主要分為 ODM 廠商與品牌服務器廠商。ODM 廠商主要負責將 GPU 等部件組裝為 GPU 服務器/機柜,在主板設計、供應鏈整合、制造代工等環節提供溢價。再送至品牌服務器廠商處銷售,或者是 ODM 廠商不通過品牌服務器廠商直接與下游(通常是 CSP)客戶合作。ODM 代表廠商包括鴻海精密、工業富聯(鴻海子公司)、英業
16、達、廣達電腦、緯創資通、Supermicro等。與云端業者、上游芯片廠商深度綁定,有穩定的供應鏈、快速交付能力、較低售價等優勢?;诘统杀竞涂焖俨渴鸱掌饕越ㄔO大規模數據中心的考量,近年云端業者與 ODM 廠商合作日益頻繁。以工業富聯為例,該公司是英偉達 A100、H100 板卡的獨家供應商,同時也是最新的 GPU HPC 平臺的獨家設計生產交付供應商。品牌服務器廠商通過自主設計服務器整體解決方案提供溢價。品牌廠商方面,AI 服務器代表廠商包括戴爾、超微電腦、HPE、甲骨文、惠普、聯想集團、浪潮信息、新華三、寧暢、超聚變、中科曙光、拓維信息等。品牌廠商擁有服務器方案自主設計能力與核心技術專利。
17、此前委托 ODM 代工廠商生產標準化服務器產品,再對外進行銷售,不過隨著云計算、AI 需求不斷增加,部分品牌服務器廠商也逐漸開始生產定制化產品,與 ODM 廠商形成了既合作又競爭的關系。此外,英偉達提供 AI 服務器參考設計,產業鏈話語權較高。GB200NVL 機柜交付模式下,英偉達對于整機產品定義能力更強,價值量向運算主板、交換機主板設計,以及機柜設計傾斜。2、高端高端 AI 服務器形態發生變化,產業鏈將得到重塑服務器形態發生變化,產業鏈將得到重塑 9/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 2025 年市場對于高階年市場對于高階 AI 服務器需求仍
18、強,尤其以英偉達新一代服務器需求仍強,尤其以英偉達新一代 Blackwell 將取代將取代 Hopper 平臺成平臺成為市場主流,且出貨形式有望從為市場主流,且出貨形式有望從 8 卡卡 HGX 服務器向機柜轉移。服務器向機柜轉移。Hopper 到到 Blackwell,服務器系統多元變化,服務器系統多元變化。英偉達從 2006 年進軍 AI 計算之后,其計算架構基本保持兩年一代的迭代速度。從初代 Tesla 架構到最新的 Blackwell 架構,芯片晶體管密度不斷增大,并行計算能力不斷提升,針對 AI 計算不斷優化,互聯能力持續升級。2024 春季 GTC 上,英偉達 CEO 黃仁勛正式推出
19、了 Blackwell 計算架構,以出眾的性能、效率和規模揭開了生成式 AI 領域的新篇章。英偉達英偉達 Blackwell 架構的服務器出貨形態較架構的服務器出貨形態較 Hopper 發生較大變化。發生較大變化。從產品體系來看,目前Blackwell 系列產品包括超級芯片 GB200 對應的機柜級產品、高性能 HGX 系統 HGX B100/B200 等。Blackwell 擁有 2080 億個晶體管,是 NVIDIA Hopper GPU 晶體管數量的 2.5 倍以上,并使用臺積電(TSMC)為 NVIDIA 量身定制的 4NP 工藝制造,單芯片算力高達 20petaFLOPS。B200
20、將兩個晶片合并為一個 GPU,顯著提升了計算能力,并通過單一的、速度為 10TB/s 的高帶寬接口 NV-HBI 連接。GB200 超級芯片由 2 顆 BlackwellGPU 和 1 顆 GraceCPU 組成,并通過 NVlink-C2C 進行連接,提供900GB/s 雙向帶寬。在 GB200 超級芯片的基礎上,還設計了 GB200NVL72 集群。GB200NVL72 以機架級設計連接 36 個 GraceCPU 和 72 個 BlackwellGPU,是一款液冷式機架級解決方案。而 Hopper 系列產品則包括 HGX H200/H100 系統和 GH200。HGX H200/H100
21、 為配置了 8 個 GPU 的服務器產品。10/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 預計機柜級產品將成為預計機柜級產品將成為 2025 年年 Blackwell 架構產品出貨的主要形式。架構產品出貨的主要形式。鴻海發言人曾在法說會上回應,將在 2024 年第四季度小量生產 GB200 服務器,2025 年大量出貨;鴻海年度科技日上,董事長劉揚偉表示市場對 Blackwell 芯片的需求達到“瘋狂程度”,計劃到 2025 年產能達到 20000 臺英偉達 NVL72 機柜。GB200 超級芯片將 CPU 和 GPU 都位于同一塊 PCB 板上,降低了
22、插入損耗,提升了 CPU 和 GPU之間的通訊能力;GB200NVL72 引入了尖端功能和第二代 Transformer 引擎,支持 FP4AI,與第五代NVIDIA NVLink 結合使用時,可為萬億參數語言模型提供 30 倍的實時 LLM 推理性能;與 NVIDIA H100 風冷基礎設施相比,GB200 在相同功率下可以提供 25 倍的性能。因此對于 Blackwell 架構,GB200 機柜級產品在算力、連接、功耗方面較 8GPU HGX 服務器更具有性價比,將成為未來的主要出貨形式。英偉達英偉達 GB200 機柜預計將推出機柜預計將推出 4 種外形尺寸。種外形尺寸。除 GB200NV
23、L72 形式的機柜外,根據 semianalysis,英偉達還推出了 GB200NVL36*2,GB200NVL36x2(Ariel)和 x86B200NVL72/NVL36x2 形態,為客戶提供更多選擇。具體來看:GB200NVL72:每個機架大約 120kW 功率,由 18 個 1U 計算托盤和 9 個 NVSwitch 托盤組成。每個計算托盤高度為 1U,包含 2 個 Bianca 板。每個 Bianca 板由 1 個 GraceCPU 和 2 個 BlackwellGPU 組成。NVSwitch 托盤包含兩個 28.8Tb/sNVSwitch5ASIC。11/38 2025 年年 1
24、月月 20 日日 行業行業|深度深度|研究報告研究報告 GB200NVL36*2:是兩個并排互連的機架,每個機架包含 18 個 GraceCPU 和 36 個 BlackwellGPU。每個計算托盤高 2U,包含 2 個 Bianca 板。每個 NVSwitch 托盤都有兩個 28.8Tb/sNVSwitch5ASIC 芯片。每個 NVSwitch 托架都有 18 個 1.6T 雙端口 OSFP 殼體,可水平連接到一對 NVL36 機架。每個機架的功率和冷卻密度為每機架 66kW,總共為 132kW。NVL36 版本預計將成為無法支持機架密度 120kW 數據中心的首選。GB200NVL36*
25、2(Ariel):在 NVL36x2 的基礎上,將計算托盤中的 Bianca 板替換為 Ariel 板,包含 1 個GraceCPU 和 1 個 BlackwellGPU。這一機架主要由 Meta 用于推薦系統訓練和推理工作負載,這類任務對 CPU 內核要求更高。x86B200NVL72/NVL36x2:或將于 2025 年二季度推出,用 x86CPU 替代原本 GB200 中的 GraceCPU。在在 HGX、DGX 平臺基礎上,面向平臺基礎上,面向 GB200 機柜,英偉達預計還將推出機柜,英偉達預計還將推出 MGX 版本,給予版本,給予 CSP 廠商廠商定制空間,擴大用戶的選擇面。定制空
26、間,擴大用戶的選擇面。DGX 為英偉達標準化平臺,不支持定制,DGX GB200 機柜預計將由英偉達直接向客戶銷售,主要客戶群體包括中小數據中心、主權數據中心等。MGX 提供模塊化參考設計,OEM 和 ODM 合作伙伴可以用不同的用例構建定制的解決方案,允許 GPU、CPU、DPU 的不同配置,包括 Grace、x86 或其他 ArmCPU。MGX 的主要客戶群體為大型 CSPs。HGX/DGX/MGX 三種模式在產業鏈分工上也略有差異。HGX 模式下,GPU 模組、板卡、服務器的制造環節幾乎全部由 ODM 廠商進行,最終交付給品牌服務器廠商出貨給不同客戶;對于 DGX GB200 機柜,芯片
27、制造、封裝環節完成后,由 ODM 廠商代工,將其組裝為 Compute Board、Switch Board 等,再根據英偉達提供的標準,組裝為機柜,并交付給英偉達,由英偉達出貨給終端客戶;對于 MGX GB200 機柜,ODM 完成 Compute Board、Switch Board 等環節的組裝后即交付英偉達,再由英偉達將標準的模塊化組件出貨給服務器ODM 廠商,根據 CSP 的設計要求組裝為機柜并交付。對于 GB200 機柜級產品,ODM 廠商的分工均較HGX 模式發生了變化,由于機柜本身價值量提升,技術難度相應增長,ODM 廠商貢獻的價值也將隨之提升。12/38 2025 年年 1
28、月月 20 日日 行業行業|深度深度|研究報告研究報告 GB200NVL 系列的發布,有望帶來機柜、系列的發布,有望帶來機柜、HBM、銅纜、液冷等市場的價值量占比提升。、銅纜、液冷等市場的價值量占比提升。展望英偉達下一代展望英偉達下一代 AI 服務器服務器 GB300。12 月 23 日中國臺北經濟日報報道,英偉達已初步確定了GB300 訂單的配置情況,GB300 進入研發設計階段,預計 2025 年三季度 GB300 實機將面市,其進度將領先全球同行。服務器設計變更包括:1)B300 將采用 LPDDR CAMMs 和 GPU 插座,以降低 GPU 故障成本和供應鏈風險;2)x86CPU 替
29、代方案,仍然需要 PCI-E 接口;3)機架總功耗提升至 130-140kW,包括1.4kWB300(相比 B200 為 1.2kW);4)可選擇采用功率電容架和 BBU;5)GB300/300A 的零部件供應商更靈活選擇。13/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 四四、產業鏈分析、產業鏈分析 AI 服務器產業鏈可分為上、中、下三部分:1)上游為零部件廠商,包括 CPU、GPU、存儲芯片、固態硬盤、PCB、被動元器件等;2)中游為 AI 服務器廠商;3)下游為各類應用市場,包括互聯網企業、云計算企業、數據中心服務商、政府部門、金融機構、醫療領域、電
30、信運營商等。14/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 服務器方案以服務器方案以 GPU 和和 HBM 為核心,同時催生為核心,同時催生 PCB、光模塊等硬件升級,孵化國產機遇。、光模塊等硬件升級,孵化國產機遇。AI 服務器靠堆料高性能 GPU 和 HBM,呈現突出的異構計算能力。以英偉達 H100 為例,GPU+HBM 價值占比超 75%。同時,核心芯片的更新迭代推動了服務器平臺配套升級,將為 PCB、光模塊等國產領域帶來轉機。1、AI 服務器產業鏈上游服務器產業鏈上游(1)A 芯片:芯片:AI 服務器搭載服務器搭載 AI 芯片仍以芯片仍以
31、GPU 為主,英偉達占據絕對的供應地位為主,英偉達占據絕對的供應地位 AI 服務器搭載服務器搭載 AI 芯片仍以芯片仍以 GPU 為主,搭載為主,搭載 ASIC 芯片服務器占比有上升趨勢。芯片服務器占比有上升趨勢。當前主流的 AI 芯片包括 GPU、FPGA、ASIC 等,其中 GPU 是前期較為成熟的芯片架構,屬于通用型芯片;ASIC 屬于為AI 特定場景定制的芯片。由于 GPU 通用型較強、適合大規模并行運算,設計和制造工藝成熟,適用于高級復雜算法和通用性人工智能平臺。由于 ASIC 根據產品的需求進行特定設計和制造的集成電路,能夠更有針對性地進行硬件層次的優化,因此具有更高的處理速度和更
32、低的能耗;相比于其他 AI 芯片,ASIC 設計和制造需要大量的資金、較長的研發周期和工程周期。據 TrendForce 數據,預計 2024 年搭載 GPU 的 AI 服務器占比約為 71%,仍占據主導地位。而隨著北美云服務商如亞馬遜、Meta 等,以及國內云服務商如阿里、百度、華為等持續積極擴大自研 ASIC 方案,使得搭載 ASIC 服務器占整體 AI 服務器比重在 2024 年將提升至 26%。15/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 1)英偉達占據英偉達占據GPU絕對的供應地位絕對的供應地位 英偉達仍是搭載英偉達仍是搭載 GPU 的的 A
33、I 服務器的絕對芯片供應商。服務器的絕對芯片供應商。據 TrendForce 數據,單看 AI 服務器搭載 GPU的芯片供應商中,英偉達占據絕對的主導地位,2022-2024 年市占率均達到 85%以上。隨著 AMD 發布Instinct 系列 AI 芯片并在 AI 服務器方面不斷發力,其市占率有望從 2022 年的 5.7%上升至 2024 年的8.1%。Intel 在 AI 服務器芯片供應商中占比近年保持相對穩定,約占 3%左右。華為昇騰、摩爾線程等國內產品已比肩英偉達華為昇騰、摩爾線程等國內產品已比肩英偉達 A100,但離國際領先水平仍有差距。,但離國際領先水平仍有差距。1)華為昇騰產品
34、方面,據鈦媒體 AGI 援引江蘇鯤鵬 昇騰生態創新中心首席運營官王陶的觀點,有近一半的中國大模型廠商選擇了昇騰技術路線,與英偉達 A100 相比,華為昇騰能達到 0.8-1.2 倍的效率,尤其在訓練 Meta Llama、BloomGPT 等模型上,昇騰 AI 算力訓練效率已優于英偉達 A100。算力層面,目前華為已在全國 20 多個城市建設昇騰人工智能計算中心,構筑了超過 2500PFlops(每秒運算能力為 2500 千萬億次)16/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 的普惠 AI 算力。2)摩爾線程產品方面,2024 年 5 月,摩爾線程與智
35、譜 AI 開展了 GPU 大模型適配及性能測試,包括大模型推理以及基于夸娥(KUAE)千卡智算集群的大模型預訓練。測試結果表明,在推理方面,摩爾線程自研全功能 GPU 顯著優于基準對比產品 RTX3090 和 RTX4090,在全部測試用例中優于 RTX3090,在多 batch 下優于 RTX4090;在訓練方面,摩爾線程夸娥千卡智算集群訓練精度與A100 集群誤差在 1%以內,夸娥千卡智算集群性能擴展系數超過 90%,模型算力利用率(MFU)與A100 集群相當。3)總體來說,國產 AI 芯片離國際領先水平仍有差距。GPU 核心器件助推配套軟硬件升級,核心器件助推配套軟硬件升級,AI 服務
36、器價值量顯著增長。服務器價值量顯著增長。服務器常包含計算、存儲、IO、散熱、PCB 等不同功能分區的模塊,不同功能模塊相互耦合、協同配合。服務器高精密、高耦合的特性意味著:GPU 成為核心器件觸發了一系列的硬件和軟件升級,以確保整個系統高效協同工作。2)牧本定律擺向定制化,關注國產牧本定律擺向定制化,關注國產ASIC服務商服務商 ASIC 專用集成電路是應特定用戶的要求,或特定電子系統的需要,專門設計、制造的集成電路。根據下圖顯示,40 萬片的產量是 ASIC 和 FPGA 成本高低的分界線,當產量大于 40 萬片時,ASIC 的性價比相對 FPGA 更高。牧本擺動每十年波動一次,有望從標準化
37、擺向定制化。牧本擺動每十年波動一次,有望從標準化擺向定制化。1987 年,原日立公司總工程師牧本次生提出牧本擺動,揭露半導體產品發展歷程總是在“標準化”與“定制化”之間交替擺動,大概每十年波動一次。牧本擺動背后是性能、功耗和開發效率之間的平衡,當算法發展達到平臺期,無法通過進一步創新來推動發展時,就需要依賴于擴大規模來維持進步,這時轉向 ASIC 的開發就變得至關重要。然而十年后,當規模擴張遭遇限制,又會重新聚焦于算法的創新,同時伴隨半導體制造技術的進步,一些可編程解決方案在性價比上將會重新獲得競爭優勢。當前為了滿足 CSP 客戶更高性能和更好功能的需求,定制化芯片ASIC 的需求持續提升,牧
38、本鐘擺從標準化逐漸擺向定制化。17/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 在博通 2024 財年報告中,公司 AI 業務營收達到約 122 已美元,同比增長 220%。同時,公司預計2027 年 AI 業務可達市場規模為 600-900 億美元,客戶有望在 AI 芯片集群中部署 100 萬個芯片,當前公司已開始為三家頭部 CSP 客戶提供 ASIC。國內具備較強芯片定制服務能力的公司,有望在當前定制化 ASIC 芯片的趨勢中收益。例如,翱捷科技基于豐富的設計經驗及雄厚的技術積累,曾為全球領先的人工智能平臺公司 S、登臨科技、美國 Moffett等數家
39、知名人工智能技術企業提供先進工藝下的人工智能云端推理超大規模芯片定制服務。(2)存儲:)存儲:AI 服務器存儲市場需求全方位升級,服務器存儲市場需求全方位升級,HBM 為核心組件為核心組件 高性能高性能 AI 芯片對于存儲容量和速率的要求水漲船高,服務器存儲市場規??焖偬嵘?。芯片對于存儲容量和速率的要求水漲船高,服務器存儲市場規??焖偬嵘?。據 Technavio 測算,2024-2028 年,全球服務器存儲市場規模將增加 876.6 億美元,CAGR 達 27.06%。此外,美光表示,AI 服務器對 DRAM 和 NAND 的容量需求分別是通用服務器的 8 倍和 3 倍。18/38 2025
40、年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 模型數據規模大、計算密集以及數據移動頻繁,需要模型數據規模大、計算密集以及數據移動頻繁,需要 AI 芯片和內存配合工作。芯片和內存配合工作。NAND 負責儲備大量原始數據以及模型參數;DRAM 在開發和部署過程中高速讀寫數據,與 AI 芯片共同決定訓練及推理速度。但 AI 芯片的性能以每年大約 55%速度快速提升,而 DRAM 性能的提升速度為每年 10%左右,不均衡的發展速度造成了內存的存取速度嚴重滯后于處理器的計算速度,因此形成“內存墻”和“帶寬墻”。過去受困于高成本及性能溢出的過去受困于高成本及性能溢出的 HBM,能
41、有效突破內存墻,成為,能有效突破內存墻,成為 AI 服務器的近內存層的關鍵構成。服務器的近內存層的關鍵構成。HBM 是一種基于 TSV(硅通孔)及 3D 堆棧工藝的高性能 DRAM。多個 DRAM 芯片垂直堆疊高帶寬接口(1024 位),與處理器集成封裝,多個內存通道高頻率運行,具有高帶寬、高容量、低延時和低功耗的優勢,成為 AI 服務器中 GPU 的搭載標配。HBM 技術升級帶來全新需求與發展機遇。1)新技術:TSV 技術實現 DRAM 各層 Die 之間以及 HBM芯片與金屬凸塊之間的連接。2)新材料:液態塑封料或顆粒狀環氧塑封料。3)新工藝:MR-MUF 工藝通過填充液態樹脂保護芯片,利
42、用回流技術實現芯片的重新定位和連接。HBM 廣泛應用于廣泛應用于 AI 服務器方案,已成功導入多家廠商的高性能算力平臺。服務器方案,已成功導入多家廠商的高性能算力平臺。NVIDIA 以及 AMD 的主流方案普遍搭載了 HBM3 技術。此外,谷歌 TPUV5、以及 AWS 的 Trainium 和 Inferentia 芯片都使用了 HBM 技術,其新品有望搭載最新 HBM3 或 HBM3E 技術。從 HBM 用量來看,2024 年主流 H100搭載 80GB HBM3,到 2025 年英偉達 Blackwell Ultra 或 AMD MI350 等主力芯片,將搭載達 288GB 19/38
43、2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 的 HBM3e,單位用量成長逾 3 倍,AI 服務器市場需求持續強勁,有望帶動 2025 年 HBM 整體供給量翻倍成長。HBM 市場規模增長潛力巨大,大廠發力新品研發與產能布局。市場規模增長潛力巨大,大廠發力新品研發與產能布局。據集微網轉引 TrendForce 數據,24Q3全球 DRAM 市場規模達到 260.2 億美元,環比+13.6%,HBM 強力驅動增長。同時得益于 HBM 取代傳統 DRAM 生產,其 ASP 延續了 24Q2 的上升趨勢,上升 8%至 13%。滲透率方面,據 TrendForce 預估,
44、2023 年 HBM 營收占 DRAM 約 8.4%,2024 年底將擴大至 20.1%,為此,各 HBM 制造商積極布局新的產能規劃,HBM 與 DRR5 產能占比提升。20/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 HBM 市場由海力士、三星、美光壟斷,其中海力士份額最高。市場由海力士、三星、美光壟斷,其中海力士份額最高。根據 TrendForce,2022 年,SK 海力士占據 HBM 內存市場 50%的份額,三星占 40%,美光占 10%。2023 和 2024 年間,三星和 SK 海力士繼續主導市場,兩家公司的份額幾乎相同,合計約為 95%,美
45、光的市場份額預計將在 4%至 7%之間徘徊。目前看,未來還是以三大家為主,因三星和美光的全力追趕,海力士的份額有所回落但依舊保持領先地位。(3)PCB:AI 服務器服務器 GPU 板組為板組為 PCB 帶來全新機遇帶來全新機遇 印制電路板(印制電路板(Printed Circuit Board,PCB)是指在絕緣基板上,有選擇地加工安裝孔、連接導線和裝配電子元器件的焊盤,以實現電子元器件之間的電氣互連的組裝板。由于 PCB 可以實現電路中各元器件之間的電氣連接,幾乎任何一臺電子設備都離不開它,它對電路的電氣性能、機械強度和可靠性都起著重要作用,因此被稱為因此被稱為“電子產品之母電子產品之母”。
46、AI 服務器中的全新結構服務器中的全新結構 GPU 板組帶來了全新硬件、計算、傳輸連接需求,從而推動板組帶來了全新硬件、計算、傳輸連接需求,從而推動 PCB 需求全方位需求全方位升級。升級。首先首先,AI 服務器需要在傳統 CPU 的基礎上增加 GPU 板組,新增的 GPU 模組版帶來 AI 服務器單機PCB 板使用量顯著提升。其次其次,AI 服務器帶寬顯著提升,從而帶來數據量的提升,這對 PCB 板的面積、層數、以及 CCL 材料的抗干擾、抗串擾、低損耗特性均提出了更高的要求,PCB 整體的性能得到顯著的提高。再者再者,高算力性能的 GPU 同時也對連接通道和連接效率提出更高要求,這直接推動
47、了對高階 HDI 板的需求。HDI 板的精細布線技術和高集成度,使其能夠在有限的空間內實現復雜的電路設計,確保數據高速傳輸。AI 服務器需求量增長驅動的工藝方案提升同樣帶來 PCB 領域的增量需求。據據 Valuates Reports 預測,預測,AI 服務器服務器 PCB 的市場規模將從的市場規模將從 2023 年的年的 1 億美元迅速增長到億美元迅速增長到 2029年的年的 1.97 億美元,億美元,增長潛力巨大。鑒于 PCB 行業屬于電子行業諸多細分領域中發展成熟度和市場競爭力相對靠前的板塊,國內從業者有望捷足先登,率先受益于全球 AI 服務器的快速成長。21/38 2025 年年 1
48、 月月 20 日日 行業行業|深度深度|研究報告研究報告 國內國內 PCB 龍頭廠商積極布局龍頭廠商積極布局 AI 服務器服務器 PCB。按申萬三級印制電路板行業,從 2023 年營業總收入排行前七位的國內上市公司來看,國內 PCB 龍頭廠商積極布局 AI 服務器 PCB。22/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告(4)光模塊:光模塊:AI 數據中心的發展加速高速光模塊的發展和應用數據中心的發展加速高速光模塊的發展和應用 AI 大模型的訓練和推理應用需要海量并行數據計算,對大模型的訓練和推理應用需要海量并行數據計算,對 AI 服務器的網絡帶寬提出更大
49、的需求,服務器的網絡帶寬提出更大的需求,進而推升高速光模塊需求。光模塊是實現光信號傳輸過程中光電轉換和電光轉換功能的光電子器件,主要用于數據中心和高性能計算系統,提供高速、大容量的數據傳輸服務。隨著數據中心和 HPC 系統在 AI 智能設備中的廣泛應用,光模塊加速從 800G 向 1.6T 演進。全球數據中心建設帶動對光模塊需求的持續穩定增長。全球數據中心建設帶動對光模塊需求的持續穩定增長。據財經三句半轉引 LightCounting 預計,2024年以太網光模塊的銷售額增長近 30%,全球光模塊市場未來 5 年的年均復合增長率將達 16%。同時人工智能集群中使用光連接加速了 1.6T 光模塊
50、和 224GSerDes 的采用,LightCounting 將其出貨量預測從2024 年的數萬臺提高到 2025 年的 100 萬臺。(5)銅連接:機柜方案有望成為主流,供應鏈份額提升前景廣闊銅連接:機柜方案有望成為主流,供應鏈份額提升前景廣闊 銅連接包含銅纜及連接器,在短距場景下,高速銅連接相較光纖連接具有性價比、穩定性、功耗優勢,正成為 AI 集群短距傳輸優選方案。英偉達于 3 月發布 GB200 系列機架,其中背板連接、近芯片連接及機柜間 I/O 連接均用到銅連接方案。直連銅纜(Direct Attach Cable,DAC),或稱 Twinax 銅纜、高速線纜,是一種固定長度、兩端有
51、固定連接器的線纜組件。DAC 銅纜包含有源(active)和無源(passive)兩種,有源 DAC 銅纜內置了放大器和均衡器,可以提升信號質量,但相對成本較高。大多數情況下,當傳輸距離小于 5 米時,可以選擇使用無源 DAC 銅纜,而當傳輸距離大于 5 米時,可以選擇有源 DAC 銅纜。DAC 銅纜上的連接器與光模塊相比,接口類型相同,但缺少了昂貴的光學激光器和其他電子元件,因此可以大大節省成本和功耗,廣泛應用于數據中心網絡中的短距離連接。在 TOR 場景下,DAC 銅纜是進行機柜內短距離布線的最佳選擇。在 EOR 場景下,如果傳輸距離小于10 米,也可以選擇使用 DAC 銅纜。23/38
52、2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 DAC 電纜可分為兩種類型:無源銅電纜(電纜可分為兩種類型:無源銅電纜(PCC)和有源)和有源 DAC。有源 DAC 可以進一步分為有源銅線(ACC)和有源電纜(AEC)。無源和有源 DAC 電纜都可以通過銅線直接傳輸電信號。前者可以在沒有信號調節的情況下進行傳輸,后者在收發器內部配備了電子設備以增強信號。ACC 有源銅線作為一種有源銅線,利用 Redriver 芯片架構,并采用 CTLE 均衡來調整 Rx 端的增益。本質上,ACC 的作用是作為一根有源電纜放大模擬信號。AEC 有源電纜代表了有源銅線電纜的一種更具創新
53、性的方法,AEC 利用 Retimer 芯片架構放大和均衡Tx 和 Rx 端子,而且重塑 Rx 端子處的信號。在英偉達 GB200NVL36/72 的機柜方案當中,需要實現 36 或 72 個 GPU 之間的高速通信。由于創新的機柜內集成的方式,考慮到成本、傳輸耗損和能耗等多方面因素,銅連接的方案是多個 GPU 近距離通信的最優解。因而英偉達 GB200NVL36/72 機柜中大量采用了銅線連接。由于每個 GPU 都直連入 18個 NVLink cartridge 端口,每個 NVLink 端口通過四條線束接到 NVSwitch 板。預計每個 GB200 機架裝有 5,184 條銅纜線。除去計
54、算板之間、計算板與 Switch 交換機板之間的通信,每個計算板上還涉及銅連接跳線、MCIO 連接器、存儲接口產品、PCIe 連接器和其他 I/O 接口產品包括 EDSFF 和 Gen-Z 連接器等。目前,NVLink cartridge 端口由美國安費諾公司獨家供應,其中包含對分線束由安費諾下屬公司安費諾時代微波,以及安費諾指定的上游廠商供應,如沃爾核材及鼎通科技;而鴻騰精密也在積極送樣驗證過程中?;谠趥鹘y服務器接口和連接器產品的優勢,以及與母公司鴻海集團的緊密合作關系,鴻騰精密在計算板上連接產品方面已做到總計 500-1,000 美元單板價值量,在 2024 年三季度開始出貨交付,并在
55、2025 年有進一步提升供應份額的空間。24/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 (6)液冷:接替風冷成為液冷:接替風冷成為 AI 數據中心主流冷卻方案數據中心主流冷卻方案 由于 AI 算力的提升導致的供電需求的明顯增加,抬升了對于 TDP(散熱設計功耗)的要求,使得傳統以風扇為主的散熱方案陷入瓶頸,液冷散熱為 AI 算力集成系統的最佳方案。英偉達 GB200 的液冷組件主要包括冷板、集流管、背板熱交換器(RDHx)和液冷分配單元(CDU)。CDU 用于調節服務器冷卻系統和溫度至所需標準,每個 NVL36/72 機架內液體冷卻方案需要一個 CDU,
56、而每個 CDU 包含四個UQD(液冷快接頭)。由于 AI 算力基礎設施建設加速,市場對于液冷系統的需求抬升,也在一段時間內造成了液冷快接頭供貨吃緊的情況。先前快接頭產品主要由包括 Danfoss、Parker、CPC 和 Staubil在內的歐美供應商供應,市場需求集中在細分領域,供應商擴產意愿不強;目前 AI 數據中心對于液冷組件產品需求激增,帶給更多相關產業鏈供應商業務機會。根據產業鏈調研,比亞迪電子正在對英偉達GB200 方案中的液冷分配單元(CDU)及冷板產品進行客戶驗證,并有望在 2025 年通過驗證形成出貨。在在 2024 年的年的 HHTD 鴻??萍既照箷?,鴻海集團展示了其液鴻
57、??萍既照箷?,鴻海集團展示了其液冷解決方案和相關組件,如冷板、液冷冷解決方案和相關組件,如冷板、液冷快接頭和集流管??旖宇^和集流管。根據調查,鴻海精密已對 GB200 配套液冷方案中的液冷快接頭開始供貨。盡管液冷組件市場是一個競爭激烈的領域,并在 2025 年將迎來更多供應商競爭格局的變化,但對鴻騰精密擴大其 AI 服務器產品組合持樂觀態度。目前預計鴻騰精密在每個 GB200 機架的液冷相關產品價值量貢獻為300 美元左右。25/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 (7)電源:電源:AI 服務器耗電量增大,電源在多方面的性能得到提升服務器耗電量增
58、大,電源在多方面的性能得到提升 AI 大模型發展,服務器能耗成本大漲大模型發展,服務器能耗成本大漲 3 倍。倍。隨著 AI 服務器的市場規模不斷擴大,其核心處理器,包括CPU、GPU、NPU、ASIC、FPGA 等,以及內存、網絡通信等芯片元器件的性能和功耗水平都在提升。耗能方面,中興通訊股份有限公司研發總工熊勇表示,由于 AI 服務器的功率較普通服務器高 6-8 倍,電源的需求也將同步提升 6-8 倍。通用型服務器原來只需要 2 顆 800W 服務器電源,而 AI 服務器的需求直接提升為 4 顆 1800W 高功率電源,服務器能耗成本從 3100 元直接飆升到 12400 元,大漲 3 倍。
59、英偉達芯片的額定功率呈遞增趨勢,基于不同芯片搭建的服務器電源功率也在上升。英偉達芯片的額定功率呈遞增趨勢,基于不同芯片搭建的服務器電源功率也在上升。在 2024 年的 GTC上,英偉達發布的基于 Blackwell 架構的 B200GPU 功率則首次達到了 1000W,超級芯片 GB200 功率最高達到 2700w。而此前的芯片 B100 功率在 700W,和上代 H100 完全一致,更早的 A100 功率為400W。英偉達基于不同芯片搭建的服務器電源功率也在上升。DGXA100 額定功率為 6*3kw,DGX H100/H200 額定功率為 6*3.3kw。而今年英偉達 GTC 大會上,發布
60、的基于 GB200 芯片的 NVL72 架構,NVL 系列機架功耗可達 120KW。26/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 服務器電源作為高性能計算和數據中心的基礎設備,擔負著為服務器集群提供穩定、高效電能供應的任務。隨著對更高計算能力的需求,服務器電源需要在有限空間內提供更多功率,這對功率密度提出了隨著對更高計算能力的需求,服務器電源需要在有限空間內提供更多功率,這對功率密度提出了更高要求,對散熱設計、元器件布局和效率提出了更高要求。更高要求,對散熱設計、元器件布局和效率提出了更高要求。AI 服務器電源通過組合開關性能、服務器電源通過組合
61、開關性能、IC 封裝、電路設計和集成等技術,顯著提高功率密度。封裝、電路設計和集成等技術,顯著提高功率密度。(1)開關損耗創新:為了獲得出色的器件性能和 FoM,對半導體技術進行投資很必要。這可能包括用于改進現有技術的創新,或者開發本質上性能更好的新材料,例如用于更高電壓開關的氮化鎵(GaN)技術。(2)封裝散熱創新:將熱量從集成電路(IC)封裝中散發出來的能力將直接影響功率密度。隨著封裝尺寸的不斷縮小,散熱問題變得越來越重要。在典型的電源轉換器中,半導體器件通常是解決方案中最熱的部分。例如,德州儀器的投資開發并引入了 HotRod 封裝,它用倒裝芯片式封裝取代了典型的鍵合線四方扁平無引線封裝
62、 QFN,這樣可以大大降低倒裝芯片式封裝中常見的寄生環路電感,同時還保留了 QFN 封裝熱性能的部分優勢。(3)先進的電路設計創新:除了先進的柵極驅動器技術以外,還有大量機會可以通過拓撲創新來提高功率密度。例如飛跨電容四電平(FC4L)(圖 47)轉換器拓撲實現了許多關鍵的功率密度優勢,包括通過降低器件額定電壓、減小磁濾波器尺寸和改善熱分布來提高器件 FoM。這些優勢可轉化為更高的功率密度。(4)集成創新:具有高性價比的集成減少了寄生效應,減少了物料清單,提高了效率并節省了空間。集成可適用于電源管理的多個方面,它可能需要在集成電路 IC 中添加更多的電路,在封裝中添加更多的組件。27/38 2
63、025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 隨著隨著 AI 服務器的發展,服務器的發展,AI 電源系統設計人員除了面臨千瓦功電源系統設計人員除了面臨千瓦功率的挑戰,轉換效率也至關重要。服務器率的挑戰,轉換效率也至關重要。服務器電源通過高性能半導體功率器件及高效率的電路拓撲結構以下方法來提高轉換效率。電源通過高性能半導體功率器件及高效率的電路拓撲結構以下方法來提高轉換效率。(1)使用高性能半導體功率器件:功率半導體是控制電力設備電能變換和進行電路控制的核心半導體器件,可對電路進行整流、分流、變壓、逆變、穩壓、變頻、功率控制等。(2)采用更高效率的電路拓撲結構:拓撲結
64、構是服務器電源中的另一個重要因素。合理的拓撲結構可以提高電源的效率,降低能耗,同時也能保證服務器的穩定運行。常見的服務器電源拓撲結構有單端正激式、雙端正激式、半橋式、全橋式。此外,無橋功率因數校正(PFC)通過減少導通路徑的器件數來減小導通損耗,可以顯著提高效率。無橋圖騰柱(Totem-Pole)PFC 作為最簡潔的無橋 PFC 拓撲,可以減少尺寸和元器件數量,以簡化 PCB 電路,從而減小體積,提高功率密度。AI 服務器電源具有服務器電源具有 N+1 或或 N+N 冗余,具體取決于系統可靠性和成本考量。冗余,具體取決于系統可靠性和成本考量?!癗”代表正常運行所需的電源模塊數量,而“+1”表示
65、額外的備用電源模塊,以確保系統的可靠性和容錯能力。這種設計允許在其中一個組件發生故障時,系統仍然能夠繼續運行,而不會對服務或性能產生顯著影響。由于在 N+1 或N+N 系統中有多個 PSU 同時供電,因此服務器 PSU 也需要使用電流共享技術。即使處于待機模式(未從其主電源軌向輸出端供電)的 PSU 也需要在熱插拔事件后即時提供全功率,因此需要功率級持續激活。為了降低待機模式下冗余電源的功耗,“冷冗余”功能正成為一種趨勢。冷冗余旨在關閉主電源運行或在突發模式下運行,從而使冗余 PSU 更大限度減少待機功耗。全球電源市場中,中國臺灣地區廠商占據主要市場份額。全球電源市場中,中國臺灣地區廠商占據主
66、要市場份額。據 MTC,全球前 16 大電源廠商中,中國臺灣地區廠商上榜 7 家,其中前五大有四家為中國臺灣地區廠商,臺達為斷層第一,光寶第二。中國大陸企業僅有麥格米特(第 7)和歐陸通(第 12)上榜。臺達是 AC/DC 電源供應器龍頭,市占率過半。AC/DC 市場是半整合的,因為大多數頂級參與者,包括臺達、SiemensAG、ABB、Murata Manufacturing 和 TDK 在市場上擁有長期信譽。市場滲透率也很高,供應商與分銷的關系穩固。臺達依靠技術領先和高度垂直整合優勢,成為英偉達新臺達依靠技術領先和高度垂直整合優勢,成為英偉達新 AI 芯片的電源大贏家。芯片的電源大贏家。臺
67、達整合電源、散熱及被動元件三大關鍵零組件優勢,從電網一路做到芯片,提供全系列 AI 電源全方位整合方案,成為英偉達新 AI 芯片的電源大贏家,拿下英偉達 Blackwell 架構系列 B100、B200、GB200 服務器電源訂單。AI 服務器電源 2023 年全年占臺達營收比重約 2%,2024 年第一季已快速攀升到 4%至 5%。中國大陸電源廠商在成本控制和服務能力方面具有優勢,未來有望快速搶占市場份額。中國大陸電源廠商在成本控制和服務能力方面具有優勢,未來有望快速搶占市場份額。28/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 AI 服務器電源領域,臺
68、達仍穩居第一,麥格米特有望縮小技術差距。服務器電源領域,臺達仍穩居第一,麥格米特有望縮小技術差距。臺達已拿下英偉達大訂單,而麥格米特目前只拿到英偉達 AI 服務器電源供貨資格,尚未傳出批量供貨的消息,存在不確定性。電源產品收入上,臺達與光寶均在百億人民幣級別,而麥格米特目前尚在 20 億人民幣體量。但麥格米特研發費用超收入的 10%,有望縮小技術差距。2023 年,麥格米特研發費用占收入比重為 11.4%,而臺達的研發投入為收入的 6-9%,光寶則為 5.5%。2、AI 服務器產業鏈下游服務器產業鏈下游 在 AI 服務器行業下游環節中,互聯網、運營商和通信廠商等主體的需求量占比排在前列。其中,
69、互聯網廠商的市場需求占比最多,接近市場的一半,占比達 47%左右;運營商和通信廠商對 AI 服務器的需求量占比分別達到約 20%和 9%。29/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 下游 AI 服務器市場需求方面,尤其是高階 AI 服務器動能主要來自大型 CSP,包括微軟、谷歌、亞馬遜、Meta、CoreWeave 等美系廠商,以及字節跳動、百度、阿里巴巴、騰訊等國內廠商。國內運營商方面,三大運營商 AI 服務器招標進程加速,帶動 AI 服務器需求持續釋放。五五、市場市場格局格局及預測及預測 1、ODM、品牌廠共同出貨,有望受益出貨量、價值量提升、品
70、牌廠共同出貨,有望受益出貨量、價值量提升 AI 服務器的終端客戶以北美四大云計算巨頭為主,微軟、谷歌、META、亞馬遜 2022 年的采購占比分別為 19%、17%、16%和 14%,占比合計達到 66%。云計算巨頭對于 AI 服務器定制化的需求比較強烈,多委托白牌代工廠生產自身的服務器,因此 ODM 廠商服務器的出貨量占比較高,24Q2 約為 44%,主要 ODM 廠商集中在中國臺灣,如鴻海、英業達、廣達等;而服務器品牌廠出貨份額約為 56%,Top3分別為超微、戴爾、HPE。國內市場方面,2022 年出貨量 Top3 廠商分別為浪潮、新華三、寧暢,份額分別為 47%、11%和 9%。隨著算
71、力需求激增,AI 服務器 ODM、品牌廠有望受益產品出貨量、價值量提升。30/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 2、相關供應鏈將持續受益相關供應鏈將持續受益 AI 服務器強勁需求、服務器強勁需求、GB200/GB300 新品量產新品量產出貨和企業級客戶訂單出貨和企業級客戶訂單 服務器品牌服務器品牌/ODM 廠商廠商 2024 年收入強勁增長和毛利率略微改善;對年收入強勁增長和毛利率略微改善;對 2025 年維持樂觀看法。年維持樂觀看法。大多數服務器品牌/ODM 廠商 9M24 服務器業務銷售持續增長,并對 4Q 和 2025 年出貨維持樂觀看法,
72、主要受益于 AI 服務器需求增長和英偉達 GB200 量產出貨。其中,戴爾/聯想/HPE/SMCI 服務器細分市場收入 3Q24 分別同比增長 34%/65%/33%/201%。GPM 方面,因服務器的高定價,大多數服務器品牌/ODM 毛利率季度環比持平或略有上升。其中,惠普預期 AI 服務器低毛利率是暫時性,未來整體利潤率會提高,預計未來能從企業客戶獲得更高毛利率。隨著英偉達 GB200 量產出貨和需求增長,加上液冷滲透率提升,預計明年服務器品牌/ODM 利潤率將有望改善??春每春?AI 服務器在服務器在 2025 年出貨量快速提升,企業級客戶需求旺盛。年出貨量快速提升,企業級客戶需求旺盛。
73、戴爾預計 2025 年 ISG 業務增長主要由 AI 服務器帶動而 AI 需求向 Blackwell 轉移且對應需求已經進入積壓訂單等待交付中,企業客戶需求增長迅速。聯想表示在 ISG 業務上看到 AIGPU 服務器訂單需求強勁,預計從 2024 年下半年開始至2025 年,收到的訂單將轉化為收入貢獻。工業富聯表示看好 AI 技術對公司獲利推動;在 GB200 關鍵 31/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 零組件上公司布局產品包括 GPU baseboard、Compute Board、NVLink Switches、SmartNIC、DPU等零
74、組件,涵蓋 AI 服務器全部關鍵環節,也是行業唯一一家具備全面制造能力的供應商,公司預計2025 年實現較大規模出貨量將提升獲利空間。廣達看好 AI 服務器業務持續強勁,并預計 2025 年 AI 服務器收入將延續三位數百分比強勁成長,整體服務器收入占比將由目前逾 50%增加至 70%。GB200 服務器服務器 ODM 市場加速整合。市場加速整合。GB200 服務器架構日益復雜,AI 產品路線圖升級加快,2024 年上游芯片公司 AMD 收購 ODM 公司 ZTSystems,預計 AI 服務器 ODM 行業將加快整合。鑒于廣達和鴻海與 CSP 的緊密業務關系、充足的營運資金和研發資源,以及遍
75、布全球的生產基地,能夠認為廣達和鴻海將是主要的受益者。預測廣達/鴻海將占據 GB200 服務器 ODM 市場的大部分份額。六六、相關公司、相關公司 1、浪潮信息:、浪潮信息:占據國內占據國內 AI 服務器制高點,鞏固行業領先地位服務器制高點,鞏固行業領先地位 各類型服務器廣泛覆蓋,產品競爭力強勁。各類型服務器廣泛覆蓋,產品競爭力強勁。浪潮信息已形成具有自主知識產權、涵蓋高中低端各類型服務器的云計算 Iaas 層系列產品。2023 年,公司服務器市場占有率全球第二,中國第一;存儲產品市場占有率全球前三,中國第一;液冷服務器市場占有率中國第一。公司與英偉達、英特爾建立了良好的合作關系公司與英偉達、
76、英特爾建立了良好的合作關系,助力,助力 AI 服務器生態和訓練的不斷強化。服務器生態和訓練的不斷強化。在近 10 年前,公司就分別與全球算力芯片龍頭英特爾和英偉達成立了并行計算實驗室和云超算應用中心。與英偉達,與英偉達,浪潮浪潮 AI Station 與與 NVIDIA AI Enterprise 共同合作,解決數據存儲、算力和任務調度、集群運維共同合作,解決數據存儲、算力和任務調度、集群運維等問題。等問題。此外,浪潮 Metaengine-英偉達 OVX”的方案中,浪潮信息提供元宇宙服務器 MetaEngine,英偉達則提供模擬和協作平臺 Omniverse Enterprise。與英特爾,
77、結合與英特爾,結合 Intel 至強可擴展處理器推出至強可擴展處理器推出 AI一體化訓練方案。一體化訓練方案。結合在硬件和軟件開發方面的技術優勢,推出了基于英特爾至強可擴展處理器的浪潮信息服務器 Al 訓推一體化方案。該 Al 訓推體化方案支持計算機視覺模型的推理工作,同時還支持大語言模型(LLM)的微調和推理工作,并可以用于支持其他通用業務。公司是百度、阿里、騰訊百度、阿里、騰訊等大型企業最主要的 AI 服務器供應商,與科大訊飛保持在系統與應用的深入合作,幫助 AI 客戶在語音、圖像、視頻、搜索、網絡等方面取得數量級的應用性能提升。占據國內占據國內 AI 服務器制高點,鞏固行業領先地位。服務
78、器制高點,鞏固行業領先地位。2017 年,公司前瞻提出以智慧計算為核心的長期整體發展戰略,積極布局 AI 計算,目前已成為業界擁有最豐富 AI 服務器產品線的廠商。根據 IDC 發數據,2023 年,公司是全球第二大服務器供應商,也是全球第一的 AI 服務器供應商。在產品技術創新層面,2023 年,公司發布全新一代 G7 算力平臺,涵蓋面向云計算、大數據、人工智能等應用場景的 16 款產品,采用開放多元的架構設計,支持廣泛的通用處理器和加速芯片,創造多項性能紀錄。其中 AI 訓練服務器 NF5688G7,較上代平臺大模型實測性能提升近 7 倍。32/38 2025 年年 1 月月 20 日日
79、行業行業|深度深度|研究報告研究報告 2、工業富聯:深耕工業富聯:深耕 AI 服務器產業鏈,服務器產業鏈,AI 算力變革的護航者算力變革的護航者 全球領先的高端智能制造商和科技服務整合全球領先的高端智能制造商和科技服務整合解決方案提供商。解決方案提供商。工業富聯主要業務包含通信及移動網絡設備、云計算、工業互聯網三大部分。自 2018 年上市以來,公司依托于數字經濟新基建的發展機遇,推動“高端智能制造+工業互聯網”的核心業務高質量發展。2020 年起,公司逐步布局云計算設備、AI、儲能等,發展第二增長曲線。于 2023 年開始為客戶開發并量產英偉達的 H100 及 H800 等高性能 AI 服務
80、器。2023 年實現營收 4763.4 億元,毛利率 8.06%,凈利率 4.41%。工業富聯在云計算業務領域采取了多元化的商業模式。工業富聯在云計算業務領域采取了多元化的商業模式。既有 OEM 模式,也包含 ODM 模式。OEM 模式主要面向品牌客戶,如戴爾、惠普等,通過提供定制化的服務器產品滿足其特定需求。而 ODM 模式則主要面向云服務商,如微軟、亞馬遜、阿里、騰訊等,為其提供高效的服務器解決方案。相對于相對于 OEM 模式,模式,ODM 模式的毛利率更高。模式的毛利率更高。主要由于 ODM 模式企業與云服務商直接合作,減少中間環節,降低成本,提高盈利能力。因此,工業富聯將發展的重點放在
81、了面向云服務商客戶的 ODM 業務上,以進一步拓展市場份額和提升盈利水平。33/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 工業富聯深度參與英偉達工業富聯深度參與英偉達 AI 產業鏈,在產業鏈分工變化中有望獲取更多份額。產業鏈,在產業鏈分工變化中有望獲取更多份額。公司作為英偉達重要的聯合研發合作伙伴以及云廠商的核心供應商,在 AI 爆發初期就占據了 AI 服務器供應的一席之地,業務涉及 GPU 模組、板卡和服務器多種形態。而在 GB200 機柜級產品系列中,公司深度參與了機柜級產品從板卡到計算托盤、交換托盤到整機的生產制造,單機價值量和機柜出貨量均有望伴隨
82、 GB200 芯片的量產實現大幅增長,帶動云計算業務收入以及整體業績高增。3、紫光股份:紫光股份:具備了完善的具備了完善的 AI 服務器產品和解決方案服務器產品和解決方案 紫光股份成立于 1999 年,由紫光集團發起設立,并于同年在深交所上市,公司通過多次并購重組,深度布局“云網芯邊端”全產業鏈,業務涵蓋 ICT 基礎設施服務與 IT 分銷兩大業務板塊,產品已全面覆蓋網絡、計算、存儲、云計算、安全和智能終端、數字化解決方案等全生命周期服務。公司旗下主要子公司有新華三、紫光軟件、紫光數碼、紫光西數、紫光云。其中,新華三是 ICT 基礎設施行業龍頭,是紫光股份經營主體,為公司貢獻了大部分營收和利潤
83、。紫光軟件是中國領先的行業解決方案和 IT 服務提供商,是公司云網板塊的重要組成部分。紫光數碼是公司主要的 ICT 分銷商,還覆蓋智慧物流和供應鏈金融。紫光西數主要生產數字存儲設備。紫光云是公司“芯云戰略”的重要組成部分,聚焦智慧城市運營、公有云研發、運營及銷售和產業互聯網等業務。公司與政企和云計算領域深度合作。公司與政企和云計算領域深度合作。政企領域,公司 2024 年發布了 G7 系列模塊化異構算力服務器,其中,H3CUniServerR5500G7 支持千億級參數規模的大模型訓練,其搭載 2 顆最新處理器+GPU 異構算力,支持大模型混合并行訓練;新一代模塊化邊緣服務器 H3CUniSe
84、rverE3300G6 具備算網融合、邊緣智算和綠色高效三重優勢,滿足 5G、邊緣云、邊緣 AI 等不同邊緣場景的需求,已在邊緣云、新能源發電、工業互聯網等場景應用部署;公司 2023 年發布的服務大模型訓練的智能算力旗艦 H3C UniServer R5500 G6 面向大規模 AI 訓練和推理場景,相較上一代產品相比算力提升 3 倍,訓練時間可 34/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 縮短 70%,目前已在互聯網公司和多個智算中心項目應用,覆蓋互聯網、運營商、金融、數字政府、教育等行業。4、沃爾核材:沃爾核材:高速通信線產品獲重要客戶驗證,訂
85、單陸續交付高速通信線產品獲重要客戶驗證,訂單陸續交付 沃爾核材成立于 1998 年,公司位于廣東省深圳市,致力于高分子核輻射改性新材料及系列電子、電力、電線新產品的研發、制造和銷售,開發運營風力發電、布局新能源汽車、智能制造等相關產業。子公司樂庭智聯生產的高速通信線為無源 DAC 銅電纜,在短距離信號傳輸方面,具備低功耗、高性價比、高速率等優勢,廣泛應用于數據中心、服務器、交換機/工業路由器等數據信號傳輸,主要客戶包括安費諾、豪利士、莫仕、泰科、立訊等。根據公司 2024 年 8 月投資者互動問答,公司部分單通道 224G 高速通信線產品完成了重要客戶驗證,已接到訂單需求,陸續交付中,目前整體
86、占比較小。5、精達股份:精達股份:鍍銀高速銅線產品獲國內外知名客戶認可,鞏固行業龍頭鍍銀高速銅線產品獲國內外知名客戶認可,鞏固行業龍頭地位地位 精達股份成立于 2000 年,公司位于安徽省銅陵市,公司主營特種電磁線、特種導體以及模具制造和維修等生產、研發和銷售業務,產品主要應用于汽車、電力、電機、光伏、電子、通訊、電網、交通、航空航天及家電等領域。子公司恒豐特導生產的鍍銀導體產品適用于高速線等領域,經過行業內多年的積累,公司在特殊導體領域圍繞銅及銅合金導體生產工藝及制備設備的核心技術進行多項革新,構建技術壁壘,在國內細分行業一直處于龍頭地位,目前鍍銀高速銅線產品的主要外資客戶有安費諾、Mole
87、x、百通、泰科等,國內客戶有樂庭、立訊精密、新亞電子、神宇通信、兆龍互連等。6、中際旭創:中際旭創:AI 需求加快光互聯迭代,全球高速光模塊龍頭核心受益需求加快光互聯迭代,全球高速光模塊龍頭核心受益 公司為全球市占率領先的數通光模塊龍頭。公司為全球市占率領先的數通光模塊龍頭。公司主營業務集高端光通信收發模塊的研發、設計、封裝、測試和銷售于一體,為云數據中心客戶提供 100G、200G、400G 和 800G 等高速光模塊,為電信設備商客戶提供 5G 前傳、中傳和回傳光模塊以及應用于骨干網和核心網傳輸光模塊等高端整體解決方案。35/38 2025 年年 1 月月 20 日日 行業行業|深度深度|
88、研究報告研究報告 根據 Lightcounting,公司市占率在過去 10 年內迅速攀升,2023 年超越 Coherent 成為全球第一的光模塊供應商。公司率先發布公司率先發布 800G/1.6T 等高速數通產品,卡位等高速數通產品,卡位 AI 算力設施建設浪潮。算力設施建設浪潮。1)英偉達明確一年一迭代平臺,配套光模塊速率不斷提升,有望拉動高速率光模塊需求。AI 算力的核心是 GPU,而英偉達提升到一年一迭代的節奏,將拉動 NvLink、IB、以太網等網絡連接解決方案的提速,進而對光互聯的關鍵器件光模塊釋放長期持續的更新迭代需求。2)北美云廠商資本開支進入上行周期,有望帶動高速光模塊出貨量
89、提升。AI 應用前景廣闊,AI 基礎設施建設需求與日俱增,北美頭部云廠商對 2024 全年資本開支指引樂觀,未來更高性能的 GPU 將要求配套光模塊實現更快速率,預計 800G 及 1.6T 等超高速率光模塊將成為市場主流。3)公司前瞻性布局 800G、1.6T,于行業內率先發布 800G 產品。公司在 2020 年首次推出 800G 光模塊產品,在 2023 年推出 1.6T 光模塊產品,延續產品領先優勢,有望搶占行業先機。公司在硅光、公司在硅光、LPO、CPO 等新興技術儲備充足,鞏固公司長期發展優勢。等新興技術儲備充足,鞏固公司長期發展優勢。公司較早自研布局硅光技術,掌握硅光芯片設計核心
90、能力,并與 TowerSemiconductor 硅光平臺合作流片,可為公司提供先進工藝及穩定流片;LPO 產品具有較高市場需求預期,公司已發布相關產品;此外,公司高度重視 CPO 技術,正在積極進行相關核心技術預研。公司為全球數通光模塊龍頭,與海外頭部客戶合作緊密。公司為全球數通光模塊龍頭,與海外頭部客戶合作緊密。根據 Lightcounting,公司市占率在過去 10 年內迅速攀升,2023 年公司超越 Coherent 在全球光模塊市場中占據第一的份額。此外,公司立足于自主技術創新,打造具有國際競爭力的高速光通信收發模塊的研發、設計和制造公司,持續增加研發投入,構筑技術壁壘,2019-2
91、023 年,公司研發支出從 4.5 億元大幅提升至 8.1 億元,位于業內領先水平。同時,公司布局多個產能,在蘇州、銅陵、成都、泰國、中國臺灣地區均設有生產基地,具備大批量高端光模塊出貨能力。7、精智達:存儲芯片測試設備提供商精智達:存儲芯片測試設備提供商 精智達是國內領先的檢測設備與系統解決方案提供商,主營業務涉及新型顯示器件檢測設備業務和半導體存儲器測試設備業務。在半導體存儲器測試設備方面,公司主要聚焦于半導體存儲器、影像傳感器和顯示驅動器 SoC 的后道測試,是目前國內少數的半導體存儲器測試設備業務全覆蓋的廠商之一。當前公司探針卡產品、老化修復設備等均已通過國內主要存儲器件廠商驗證并取得
92、批量銷售業績;晶圓測試機與 FT 測試機研發持續推進,其中晶圓測試機樣機驗證工作接近完成,應用于 FT 測試機的9Gbps 高速接口 ASIC 芯片已經實現工程流片,同時公司配合相關客戶開發針對如 HBM 測試需求的測試技術和設備。36/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 8、麥格米特:多極布局行穩致遠,麥格米特:多極布局行穩致遠,AI 服務器電源貢獻高彈性服務器電源貢獻高彈性 電氣自動化多元布局,業績整體穩健增長。電氣自動化多元布局,業績整體穩健增長。公司是國內電力電子領軍企業,業務涵蓋智能家電電控產品、電源產品、新能源及軌道交通部件、工業自動化
93、、智能裝備、精密連接六大類。2024Q1-3 公司實現營收 59.0 億元,同比+21.1%,歸母凈利潤 4.1 億元,同比-14.8%,主要系公允價值變動收益同比減少,扣非凈利潤 3.6 億元,同比+18.1%;其中 24Q3 實現營業收入 18.9 億元,同比+19.0%,歸母凈利潤 1.0億元,同比+3.9%,扣非凈利潤 0.8 億元,同比+16.3%,業績整體穩健增長。公司電源技術儲備深厚,優良品牌口碑為海外龍頭客戶攻克打下良好基礎。公司早年主要從事通信電源制作,伴隨 5G 產業的持續發展,先后與愛立信、飛利浦、魏德米勒、西門子等展開深度合作,并在2019 年實現了思科、瞻博網絡等國際
94、龍頭客戶的突破。以通訊電源技術為基礎,切入服務器電源賽道。服務器電源和通訊電源底層技術共通,都是起到降壓和整流效應,但服務器電源具有更高的功率密度、負載波動、效率要求以及較高品質的冗余配置。2021年起公司陸續推 1600W/2200W 服務器電源產品,并在 2024 年 OCP 全球峰會上展示 5.5KW 電源樣機。公司成為英偉達公司成為英偉達 AI 服務器電源大陸唯一供應商,公司積累多年,厚積薄發。服務器電源大陸唯一供應商,公司積累多年,厚積薄發。臺達電、光寶為英偉達 AI服務器電源的頭部供應商并占據主要份額。本次英偉達官網披露的合作伙伴中,僅新增麥格米特一家電源廠商。公司持續在網絡電源領
95、域投入多年,此前已與國內外頭部公司進行了多項項目需求和訂單對接,并完成了技術平臺、產品標準等的能力建設,躋身網絡電源第一梯隊供應商。英偉達將麥格米特納入合作伙伴充分證明了公司在 AI 服務器電源領域的技術積累和產品實力。公司電源產品效率位居行業前列。公司電源產品效率位居行業前列。公司最新推出的電源系統適用于 NVIDA MGX 平臺,電源方案為 6個 5.5kw 電源模塊,在 1U 服務器電源架中提供 33kw 功率,效率高達 97.5%。根據臺達電官網,其 37/38 2025 年年 1 月月 20 日日 行業行業|深度深度|研究報告研究報告 ORV3 標準的 33/66kw 機架式電源效率
96、高達 97.5%。公司產品效率與行業龍頭臺達電基本一致,均超越80plus 標準下最高等級鈦金級 96%。4KW、2400W 鈦金以及鈦金以及 33KW Powershelf 等最新技術突破產品將陸續亮相各大展會,可滿足現等最新技術突破產品將陸續亮相各大展會,可滿足現階段國內外行業頭部客戶對階段國內外行業頭部客戶對 AI 服務器的電源應用需求。服務器的電源應用需求。麥格米特電源業務大多為定制項目,具體產品參數可視客戶具體需求進行定制開發,公司是目前少數已具備行業領先的高功率高效率電源技術平臺以及全產業鏈海外制造能力的綜合型電源供應商,可滿足現階段國內外行業頭部客戶對 AI 服務器的電源應用需求
97、。自 2024 年 9 月起,公司團隊也將攜帶最新技術突破的網絡電源產品陣容(包括 CRPS 系列電源、4KW、2400W 鈦金以及 33KW Powershelf 等)亮相國內外各大行業技術展會。新推出的服務器電源具備高功率 5.5KW,高密度 100+W/立方英寸,高效率鈦金 96%Titanium 等優異性能特點。服務器電源標準 CRPS 系列產品,具有全數字電路設計,遵循英特爾 CRPS 冗余電源定義指標。產品滿足80PLUS 鉑金和鈦金能耗效率,支持 N+1 冗余模式??蔁岵灏?,PMBus1.2 版本協議,符合IEC60950/62368 標準。七七、參考研報、參考研報 1.國信證券
98、-電子行業 2025 年年度投資策略:AI 革新人機交互,智能終端百舸爭流,行業邁入估值擴張大年 38/38 2025 年年 1 月月 20 日日行業行業|深度深度|研究報告研究報告 2.天風證券-消費電子行業研究周報:英偉達 GB200NVL72 服務器正式出貨,看好如期量產及算力板塊機會3.中信建投-電子行業:機柜放量在即,核心算力增量之高速銅連接4.東北證券-工業富聯-601138-深度報告:深耕 AI 服務器產業鏈,AI 算力變革的護航者5.招銀國際-2025 年度策略報告:寒潮未盡,春山可望6.華福證券-服務器行業深度報告:AI 和“東數西算”雙輪驅動,服務器再起航7.萬聯證券-20
99、24 年中期電子行業投資策略報告:AI 浪潮迭起,智能觸手可及8.國海證券-計算機行業 AI 算力“賣水人”系列(3):NVIDIAGB200,重塑服務器/銅纜/液冷/HBM 價值9.光大證券-電子行業英偉達產業鏈跟蹤報告之二:Blackwell 將于 2025 年加速成長,光銅板供應鏈有望深度受益10.中原證券-通信行業年度策略:向新求質,AI 驅動產業變革11.東莞證券-電子行業 2025 上半年投資策略:AI 驅動行業成長,云端算力與終端創新齊飛12.東興證券-浪潮信息-000977-產線充沛,占據國內 AI 服務器制高點13.山西證券-紫光股份-000938-ICT 龍頭企業,深化全棧智算能力-24120414.上海證券-算力行業深度報告(系列一):算力供需雙向走強,AI 催化 Infra 建設新征程免責聲明:以上內容僅供學習交流,不構成投資建議。