《工業富聯-公司深度報告-深耕AI服務器產業鏈AI算力變革的護航者-241115(28頁).pdf》由會員分享,可在線閱讀,更多相關《工業富聯-公司深度報告-深耕AI服務器產業鏈AI算力變革的護航者-241115(28頁).pdf(28頁珍藏版)》請在三個皮匠報告上搜索。
1、 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 Table_Info1 工業富聯工業富聯(601138)電子電子 Table_Date 發布時間:發布時間:2024-11-15 Table_Invest 買入買入 上次評級:買入 股票數據 2024/11/15 6 個月目標價(元)收盤價(元)23.92 12 個月股價區間(元)12.6829.00 總市值(百萬元)475,240.39 總股本(百萬股)19,868 A 股(百萬股)19,868 B 股/H 股(百萬股)0/0 日均成交量(百萬股)152 Table_PicQuote 歷史收益率曲線 Table_Trend 漲跌幅(
2、%)1M 3M 12M 絕對收益-3%16%50%相對收益-8%-5%38%相關報告 工業富聯(601138):AI 服務器 Q2 同環比高增,800G 交換機即將上量-20240814 Table_Author 證券分析師:李玖證券分析師:李玖 執業證書編號:S0550522030001 17796350403 證券分析師:鄒杰證券分析師:鄒杰 執業證書編號:S0550524050002 證券分析師:吳雨萌證券分析師:吳雨萌 執業證書編號:S0550523080001 18901997197 Table_Title 證券研究報告/公司深度報告 深耕深耕 AI 服務器服務器產業產業鏈,鏈,AI
3、 算力變革的護航者算力變革的護航者-工業富聯深度報告工業富聯深度報告 報告摘要:報告摘要:Table_Summary 云廠商資本開支預期持續提升,云廠商資本開支預期持續提升,AI 算力空間巨大。算力空間巨大。從底層原理看,摩爾定律的邊際放緩和 Scaling law 共同打開了 AI 算力需求的上限,更強的模型需要更大的參數量、數據量進行訓練,而支撐模型訓練則需要更多的 AI 算力。從 AI 算力實際需求看,2024 年前三季度北美四大云廠商資本開支同比增長 59%;根據 TrendForce,預計 2024 年 AI 服務器出貨量同比增速將達到 42%,2025 年受云端業者及主權云等需求帶
4、動,出貨量有望再增長約 28%,推動 AI 服務器占整體服務器市場出貨量比例提高至近 15%。AI 服務器市場整體仍具有較大的增長潛力。高端高端 AI 服務器出貨形態改變,產業鏈有望服務器出貨形態改變,產業鏈有望得到得到重塑。重塑。根據 TrendForce,從 AI 服務器搭配 AI 芯片類型來看,預計 2024 年主流搭載 GPU 的 AI服務器占比為 71%,其中英偉達市占率近 9 成,預計 2025 年英偉達新一代 Blackwell 將取代 Hopper 平臺成為市場主流。由于 GB200 機柜級產品在算力、連接、功耗方面均較傳統 8 卡服務器更具性價比,因此Blackwell 架構
5、產品的主要出貨形式也相應發生變化。根據鴻海發言人在法說會上的回應,預計 2024 年第四季度小量生產 GB200 服務器,2025年大量出貨。產品形態和出貨模式的變化也將影響產業鏈的分工。工業富聯深度參與英偉達工業富聯深度參與英偉達 AI 產業鏈,在產業鏈產業鏈,在產業鏈分工變化分工變化中有望獲取更中有望獲取更多份額。多份額。公司作為英偉達重要的聯合研發合作伙伴以及云廠商的核心供應商,在 AI 爆發初期就占據了 AI 服務器供應的一席之地,業務涉及GPU 模組、板卡和服務器多種形態。而在 GB200 機柜級產品系列中,公司深度參與了機柜級產品從板卡到計算托盤、交換托盤到整機的生產制造,單機價值
6、量和機柜出貨量均有望伴隨 GB200 芯片的量產實現大幅增長,帶動云計算業務收入以及整體業績高增。投資建議:投資建議:我們認為工業富聯作為英偉達核心供應商,將成為 AI 資本開支高速增長、算力投入持續提升的受益者。預計工業富聯 2024-2026 年分別實現收入 5833/7480/8645 億元,同比增長 22%/28%/16%;實現歸母凈利潤 237/294/345 億元,同比增長 13%/24%/18%。對應 PE 分別為20 x/16x/14x。給予“買入”評級。風險提示:風險提示:技術迭代不及預期的風險;供應鏈穩定性下降的風險;技術迭代不及預期的風險;供應鏈穩定性下降的風險;GB20
7、0量產進度不及預期的風險;行業競爭加劇,毛利率下降的風險。量產進度不及預期的風險;行業競爭加劇,毛利率下降的風險。Table_Finance 財務摘要(百萬元)財務摘要(百萬元)2022A 2023A 2024E 2025E 2026E 營業收入營業收入 511,850 476,340 583,302 747,977 864,489(+/-)%16.45%-6.94%22.45%28.23%15.58%歸屬母公司凈利潤歸屬母公司凈利潤 20,073 21,040 23,700 29,377 34,519(+/-)%0.32%4.82%12.64%23.95%17.51%每股收益(元)每股收益(
8、元)1.02 1.06 1.19 1.48 1.74 市盈率市盈率 9.00 14.26 20.05 16.18 13.77 市凈率市凈率 1.41 2.14 2.92 2.47 2.09 凈資產收益率凈資產收益率(%)16.17%15.63%14.54%15.27%15.21%股息收益率股息收益率(%)2.30%2.42%0.00%0.00%0.00%總股本總股本(百萬股百萬股)19,860 19,866 19,868 19,868 19,868-40%-20%0%20%40%60%80%100%工業富聯滬深300 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 2/28 工業富聯
9、工業富聯/公司深度公司深度 目錄目錄 1.高性能高性能 AI 服務器主導市場,白牌服務器廠商份額提升服務器主導市場,白牌服務器廠商份額提升.3 1.1.供給:早期受 CPU 技術迭代影響,AI 時代 GPU 成主導因素.3 1.2.需求:資源向云廠商集中,AI 發展導致 Capex 持續加碼.5 1.3.ScalingLaw 打破算力需求天花板,AI 服務器打開長期成長空間.8 1.4.高端 AI 服務器形態發生變化,產業鏈得到重塑.13 2.工業富聯:工業富聯:GB200 產業鏈的重要一環產業鏈的重要一環.20 2.1.服務器 ODM 核心參與者,受益于 CSP 定制化需求增長.20 2.2
10、.與英偉達密切合作,有望提升機柜級方案中的價值量.21 3.盈利預測及投資建議盈利預測及投資建議.23 3.1.主營業務收入拆分及預測.23 3.2.投資建議.23 4.風險提示風險提示.25 圖表目錄圖表目錄 圖圖 1:通用服務器各環節成本占比:通用服務器各環節成本占比.3 圖圖 2:CPU 供應商的市場份額供應商的市場份額.3 圖圖 3:各類型服務器成本占比:各類型服務器成本占比.5 圖圖 4:英偉達數據中心:英偉達數據中心 GPU 技術迭代路線圖技術迭代路線圖.5 圖圖 5:2022 年國內服務器下游行業分布年國內服務器下游行業分布.6 圖圖 6:2023-2024 年全球年全球 CSP
11、 對高階對高階 AI 服務器需求占比服務器需求占比%(內圈:(內圈:2023 年;外圈:年;外圈:2024 年)年).6 圖圖 7:北美云廠商:北美云廠商 CAPEX 和服務器季度出貨量及市場規模增速對比(百萬美元和服務器季度出貨量及市場規模增速對比(百萬美元/%).7 圖圖 8:ScalingLaw:隨著模型大小、數據集大小和訓練所用計算量的增加,語言模型的性能也會穩步提高:隨著模型大小、數據集大小和訓練所用計算量的增加,語言模型的性能也會穩步提高.8 圖圖 9:多模態大模型時間軸:多模態大模型時間軸.11 圖圖 10:多模態模型并聯型架構:多模態模型并聯型架構.11 圖圖 11:Sora
12、視頻生成模型視頻生成模型 DiT 架構原理架構原理.12 圖圖 12:o1 模型引入模型引入 ChainofThought,大幅提升邏輯推理能力,大幅提升邏輯推理能力.13 圖圖 13:GB200NVL72 機柜級產品在大模型推理、訓練速度、能效、數據查詢能力等方面遠超機柜級產品在大模型推理、訓練速度、能效、數據查詢能力等方面遠超 HGXH100 16 圖圖 14:NVL72 和和 NVL36*2 架構架構.17 圖圖 15:HGX/DGX/MGX 三種模式的產業鏈分工三種模式的產業鏈分工.18 圖圖 16:工業富聯分項業務收入占比(:工業富聯分項業務收入占比(%).20 圖圖 17:工業富聯
13、云計算業務營業收入及增速(億元:工業富聯云計算業務營業收入及增速(億元/%).20 圖圖 18:服務器市占率(按市場規模計算,:服務器市占率(按市場規模計算,%).21 圖圖 19:2021 年全球服務器出貨份額(年全球服務器出貨份額(%).21 表表 1:英特爾:英特爾/AMD 服務器芯片迭代服務器芯片迭代 roadmap.4 表表 2:北美云廠商:北美云廠商 2024 年資本開支情況及指引年資本開支情況及指引.8 表表 3:臺積電:臺積電 2011 年以來制程及晶體管密度年以來制程及晶體管密度.9 表表 4:英偉達數據中心:英偉達數據中心 GPU Roadmap.9 表表 5:2024 年
14、搭載年搭載 ASIC 自研芯片自研芯片 AI 服務器的出貨占比服務器的出貨占比.13 表表 6:英偉達:英偉達 Hopper、Blackwell 芯片產品參數芯片產品參數.14 表表 7:英偉達:英偉達 Hopper、Blackwell 模組模組/機柜級產品參數機柜級產品參數.15 表表 8:英偉達產品更名及配置預測:英偉達產品更名及配置預測.19 表表 9:工業富聯分項業務收入預測(億元:工業富聯分項業務收入預測(億元/%).23 表表 10:可比公司估值分析(截至:可比公司估值分析(截至 2024/11/15).24 表表 11:工業富聯盈利預測:工業富聯盈利預測.24 請務必閱讀正文后的
15、聲明及說明請務必閱讀正文后的聲明及說明 3/28 工業富聯工業富聯/公司深度公司深度 1.高性能高性能 AI 服務器主導市場,白牌服務器廠商份額提升服務器主導市場,白牌服務器廠商份額提升 1.1.供給:早期受 CPU 技術迭代影響,AI 時代 GPU 成主導因素 服務器服務器 CPU 成本占大頭,成本占大頭,CPU 迭代主導產品周期。迭代主導產品周期。服務器作為網絡環境中提供計算能力以及運行應用程序的 IT 設備,其計算性能主要由 CPU 的核心數量、架構、頻率決定。從成本角度看,根據 IDC 數據,通用服務器拆分中,CPU 成本占比最高,達到 32%。因此 CPU 的技術迭代是用戶替換原有服
16、務器的動力之一。摩爾定律失效及數據處理需求增長為服務器市場規模擴大帶來長期支撐。摩爾定律失效及數據處理需求增長為服務器市場規模擴大帶來長期支撐。根據摩爾定律,IC 上可容納的晶體管數目約每隔 18 個月便會增加一倍,性能也將提升一倍,而價格下降一倍。伴隨數據量增長,對大量數據處理需求的消化能夠通過增加計算設施的數量和提高晶體管密度兩種方式實現。而由于摩爾定律的失效,后者效果持續減弱,數據處理需求增長將成為服務器出貨量及市場規模持續增長的主要支撐,服務器性能提升也將反映在單價提升上。早期早期Intel主導服務器處理器市場,其技術研發周期是服務器廠商采購的重要參考。主導服務器處理器市場,其技術研發
17、周期是服務器廠商采購的重要參考。根據 IDC 數據,過去十余年,Intel 一直是服務器處理器市場份額的絕對占有者,自2006 年以來,Intel 市場份額持續提升,到 2017 年達到頂峰 98.1%。作為 CPU 市場的主導者,其技術迭代周期影響了服務器廠商的采購節奏,從制程更新角度看,Intel32nm、22nm、14nm 制程處理器分別在 2010Q1、2013Q3、2016Q3 量產,而服務器出貨量/市場規模增速的波峰則出現在 2011Q2、2015Q1、2018Q1,間隔約 5-6個季度(具體可參考圖 7)。圖圖 1:通用服務器各環節成本占比:通用服務器各環節成本占比 圖圖 2:C
18、PU 供應商的市場份額供應商的市場份額 數據來源:IDC,前瞻產業研究院,東北證券 數據來源:IDC,Bloomberg,東北證券 Intel 迭代周期放緩,通用服務器采購周期受迭代周期放緩,通用服務器采購周期受 CPU 技術迭代的影響正在減弱技術迭代的影響正在減弱。2016年以前,Intel 采取 Tick-Tock 研發周期,即兩年一次工藝制程進步,中間一年更新架構。2016 年開始,Intel 研發瓶頸出現,2017 年 Intel 推出 14nm 制程產品 Skylake(可擴展處理器第一代)后,新制程推出持續跳票,直至 2021Q1 推出 10nm 制程的產品 Icelake(第三代
19、)。與此同時,競爭對手 AMD 發力,制程、核數反超 Intel。2024 年,Intel 推出了第六代 GraniteRapids,核心數追上 AMD。由于 Intel 自身技術迭代周期放緩以及 AMD 的追趕,Intel 市場份額有所下降,2023 年 Intel 在全球服務器 CPU 市場占據了 69.14%的份額;AMD 份額提升至 17.63%。市場份額變化導致了由技術迭代主導的服務器換機需求正在逐步減弱。32%27%18%23%CPU內存硬盤其他0%20%40%60%80%100%120%20062007200820092010201120122013201420152016201
20、7201820192020202120222023IntelAMDARM系其他 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 4/28 工業富聯工業富聯/公司深度公司深度 表表 1:英特爾:英特爾/AMD 服務器芯片迭代服務器芯片迭代 roadmap Intel AMD 年份年份 代號代號 制程制程 核心數核心數 內存內存 PCIe 代號代號 制程制程 核心數核心數 內存內存 PCIe 2011 SandyBridge 32nm 最大 8核 DDR3 PCIe3.0 Bulldozer 32nm 最大 16核 DDR3 PCIe3.0 2013 IvyBridge 22nm 最大
21、12核 DDR3 PCIe3.0 Piledriver 32nm 最大 16核 DDR3 PCIe3.0 2014 Haswell 22nm 最大 18核 DDR4 PCIe3.0 Steamroller 28nm 最大 16核 DDR3 PCIe3.0 2016 Broadwell 14nm 最大 22核 DDR4 PCIe3.0 Excavator 28nm 最大 8核 DDR3 PCIe3.0 2017 Skylake 14nm 最大 28核 DDR4 PCIe3.0 Zen1 14nm 最大 32核 DDR4 PCIe3.0 2019 CascadeLake 14nm 最大 28核 D
22、DR4 PCIe3.0 Zen2 7nm 最大 64核 DDR4 PCIe4.0 2020 CooperLake 14nm 最大 28核 DDR4 PCIe3.0 2021 IceLake 10nm 最大 40核 DDR4 PCIe4.0 Zen3 7nm 最大 64核 DDR4 PCIe4.0 2022 Zen4 5nm 最大 96核 DDR5 PCIe5.0 2023 SapphireRapids 10nm 最大 60核 DDR5 PCIe5.0 Zen4c 5nm 最大128 核 DDR5 PCIe5.0 2024 EmeraldRapids 10nm 最大 64核 DDR5 PCIe5
23、.0 Zen5 4nm 最大256 核 DDR5 PCIe5.0 GraniteRapids 7nm 最大288 核 DDR5 PCIe5.0 數據來源:Intel 官網,AMD 官網,東北證券整理 GPU 接棒接棒 CPU 成為下一個影響服務器成為下一個影響服務器技術技術迭代的主要因素迭代的主要因素。AI 服務器與普通服務器的主要區別在于:1)硬件架構:AI 服務器通常配備高效的中央處理器(CPU)和多塊圖形處理器(GPU)、張量處理器(TPU)或專用的 AI 加速器,普通服務器主要以 CPU 為算力提供者,適用于處理邏輯計算和浮點型計算等任務。AI 服務器通常配備 1-2 個 CPU+4/
24、8/16 個 GPU,通用服務器則可以支持更多 CPU 插槽。2)計算能力:AI 服務器通常采用并行計算模式,普通服務器的 CPU 在進行邏輯判斷時需要大量的分支跳轉處理,結構復雜,算力提升主要依靠增加核心數。此外,AI服務器對內存、網絡能力具有更高的要求。2023 年開始正式進入 AI 大模型時代,由于 AI 模型訓練的特性,需要對大量數據樣本進行并行處理,因此能夠執行高強度并行計算任務的 GPU 更加符合大模型訓練和推理的要求。根據 IDC 數據,機器學習型服務器 GPU 成本占比在 73%,顯著高于 CPU 成本占比。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 5/28 工
25、業富聯工業富聯/公司深度公司深度 圖圖 3:各類型服務器成本占比:各類型服務器成本占比 數據來源:IDC,東北證券 圖圖 4:英偉達數據中心英偉達數據中心 GPU 技術迭代路線圖技術迭代路線圖 數據來源:Nvidia 官網,東北證券 1.2.需求:資源向云廠商集中,AI 發展導致 Capex 持續加碼 互聯網是服務器市場最大的下游客戶,采購需求受到資本開支和折舊周期的共同影互聯網是服務器市場最大的下游客戶,采購需求受到資本開支和折舊周期的共同影響。響。根據 TrendForce,2024 年服務器整機仍以美系云廠商為主要客戶;在高端 AI 服務器方面,微軟、谷歌、AWS、Meta 四巨頭占比分
26、別達到 20%/17%/16%/11%,國內互聯網廠商 BBAT 的需求占比為 8%。服務器的需求格局在過去 10 年也發生了較大變化,一方面,互聯網廠商主業發展(如阿里、亞馬遜的電商,騰訊的游戲,字節的短視頻業務)驅動大廠部署更多的服務器,以應對高并發場景(如雙十一);另一方面,云計算模式的興起將企業市場的服務器需求轉移至云廠商,需求格局向頭部集中,因此國內外互聯網廠商的資本開支變化能夠作為服務器市場規模的一項前瞻指標。此外,海外互聯網廠商的折舊政策普遍將服務器的折舊年限定為 4 年左右,折舊周期同樣將影響下游對服務器的需求。0%20%40%60%80%100%基礎型高性能型推力型機器學習型
27、CPUGPU內存硬盤其他 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 6/28 工業富聯工業富聯/公司深度公司深度 圖圖 5:2022 年國內年國內服務器下游行業分布服務器下游行業分布 圖圖 6:2023-2024 年全球年全球 CSP 對高階對高階 AI 服務器需求服務器需求占比占比%(內圈:(內圈:2023 年;外圈:年;外圈:2024 年)年)數據來源:IDC,中商情報網,東北證券 數據來源:Trendforce,東北證券 從服務器歷史出貨情況進行復盤,出貨量與銷售收入一輪周期大約持續 3-4 年,其中需求側更多受到云廠商資本開支的影響,供給端更多關注服務器處理器技術迭代的
28、情況。具體來看:根據云廠商資本開支情況和服務器出貨情況,我們將通用服務器按周期進行劃分:階段階段 1(20102015 年):年):2006 年 AWS 成立,2010 年前后,微軟、谷歌分別推出 Azure 和 GoogleCloud,大廠云計算業務起步。從需求格局上看,2010 年前后,服務器的主要下游在于企業市場(約 30-40%)、政府、金融、電信等行業,企業通過自建機房進行信息化建設,通常直接向服務器品牌廠商或渠道商采購,需求較為分散。伴隨云計算模式的崛起,企業市場的服務器需求逐漸轉移至云計算廠商,自建機房轉換為公有云。這段時間,大廠資本開支增速與服務器銷售收入增長情況背離,云廠商資
29、本開支大幅增長,但絕對額顯著低于服務器銷售收入,資本開支增速遠高于服務器規模增速。階段階段 2(20162019 年):年):互聯網大廠資本開支在 2016 年和 2018 年仍保持了較高增速,云廠商在服務器下游的占比逐漸提升。我們計算北美四大互聯網廠商資本開支總和,其在服務器銷售收入的占比由 2011Q1 的 15%提升至 2016Q4 的 54%。這段時間,云計算業務規模持續擴大,伴隨服務器下游客戶中互聯網廠商占比的提升,云廠商資本開支增速與服務器銷售收入增長趨勢逐漸統一,北美 CSP 資本開支變化對服務器采購周期的影響顯著提升。階段階段 3(20202023 年):年):2020 年受疫
30、情影響,線上數字化辦公需求暴增,企業市場進一步向云廠商轉移,其中 2020H2 開始至 2021 年,亞馬遜資本開支出現幾乎翻倍增長態勢,拉動北美云廠商資本開支增速上升,并導致與服務器出貨增速再次出現背離。剔除亞馬遜 2020 年提前投入的影響,2021 年-2022 年,北美四大云廠商資本開支仍處于上行期,帶動服務器需求大幅增長。到 2023 年,通用服務器投入放緩,且資本開支中 AI 服務器需求對通用服務器份額形成擠兌。階段階段 4(2024 年至今):年至今):2023 年云廠商資本開支增速出現收縮(Q2Q3 甚至負增速),一方面,云廠商經過21-22 年的高速投入后,短期換機動力不強;
31、另一方面,AI 大模型軍備競賽,云廠商資本開支被 AI 服務器占用,由于 AI 服務器具有更高的單機價值量,2023 年服務器銷售收入正增長,但出貨量下滑。2024 年前三季度北美云廠商資本開支同比增長43.80%10.60%9.90%9.00%26.70%互聯網運營商金融政府其他22%19%15%9%6%5%25%20%17%16%11%6%8%22%微軟谷歌AWSMetaCoreweaveBBAT其他 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 7/28 工業富聯工業富聯/公司深度公司深度 59%,增長主要由 AI 服務器貢獻,帶動服務器市場規模、出貨量大幅回升。根據彭博一致
32、預期,CY2024 北美四大云廠資本開支同比增速有望達到 50.42%。圖圖 7:北美云廠商:北美云廠商 CAPEX 和服務器季度出貨量及市場規和服務器季度出貨量及市場規模增速對比(百萬美元模增速對比(百萬美元/%)數據來源:IDC,Bloomberg,東北證券 云廠商開啟大模型軍備競賽,云廠商開啟大模型軍備競賽,AI 服務器需求量大幅抬升。服務器需求量大幅抬升。根據 TrendForce,預估2023 年 AI 服務器(包含搭載 GPU、FPGA、ASIC 等)出貨量近 120 萬臺,年增38.4%,占整體服務器出貨量近 9%,預計 2024 年 AI 服務器出貨量同比增速將達到42%,20
33、25 年受云端業者及主權云等需求帶動,出貨量有望再增長約 28%,推動 AI服務器占整體服務器市場出貨量比例提高至近 15%。從行業的角度看,互聯網依然是最大的采購行業,占整體加速服務器市場近 60%的份額,此外金融、電信、交通和醫療健康等多數行業均有超過一倍以上的增長。從互聯網角度看,為了訓練自己的 AI 大模型,在下一代技術變革中取得先發優勢,各大廠對于 AI 投入的重視程度顯著提升,并開啟一輪 AI 算力儲備:微軟微軟:未來幾年的資本支出將逐年增加,以支持公司云產品的增長以及在人工智能基礎設施和訓練方面的投資。谷歌:谷歌:CFO 在電話會議中表示資本支出的增加大部分將用于技術基礎設施,包
34、括支持云和 AI 產品的服務器和數據中心設備,如多模態 AI 助手 Astra。公司側重于效率,從而為 AI 的投入騰出資金。亞馬遜亞馬遜:2025 年的資本支出將在今年的基礎上繼續增加。公司大部分資本支出用于 AWS,其增長主要是由人工智能技術方面的投入所驅動的。Meta:預計 2025 年資本支出將顯著增長,尤其是基礎設施支出將加速增長,主要原因是基礎設施增加帶來更高的折舊和運營費用增長。公司表示,計劃繼續大力投資于 AI,為了實現生成式 AI 的目標,可能需要投入數千億美元的算力資本支出。-40%10%60%110%0.0010000.0020000.0030000.0040000.00
35、50000.0060000.0070000.002010/3/12010/9/12011/3/12011/9/12012/3/12012/9/12013/3/12013/9/12014/3/12014/9/12015/3/12015/9/12016/3/12016/9/12017/3/12017/9/12018/3/12018/9/12019/3/12019/9/12020/3/12020/9/12021/3/12021/9/12022/3/12022/9/12023/3/12023/9/12024/3/12024/9/12025/3/1服務器市場規模四大云廠Capex服務器出貨量增速服務器市
36、場規模增速四大云廠Capex增速 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 8/28 工業富聯工業富聯/公司深度公司深度 表表 2:北美云廠商:北美云廠商 2024 年資本開支情況及指引年資本開支情況及指引 微軟微軟 包括融資租賃獲得資產在內,微軟 FY1Q25 總資本支出約 200 億美元,同比增長 78.6%;其中,不動產和設備相關的現金支出 149.2 億美元,同比增長 50.7%。微軟預計,下一財季公司資本支出將環比增長,突破 200 億美元。本季度 Azure 云業務收入維持 33%的高增長,AI 對增速的貢獻擴大至 12%,環比增長 4pct,AI 業務年化收入將達
37、到 100 億美元。谷歌谷歌 谷歌 3Q24 資本支出 130.6 億美元,CFO Anat Ashkenazi 表示,預計第四季度的支出將保持在同一水平,但公司將在 2025 年進行更高的資本支出。亞 馬亞 馬遜遜 亞馬遜 3Q24 的資本開支達 226 億美元,同比增長超 81%,CEO 安迪賈西預計公司今年全年的資本支出約為 750 億美元。公司的人工智能業務規模高達數十億美元的業務,且年增長率達到三位數,增速是 AWS 業務當年增速的三倍。Meta Meta 3Q24 資本支出為 92.0 億美元,2024 全年資本支出預計將在 380-400 億美元之間,此前預期為370-400 億
38、美元。Meta 三季度營收同比增長 19%,扎克伯格將公司收入的提升歸功于 AI 投資,透露已有超過 100 萬廣告主使用 Meta 的生成式 AI 廣告工具。數據來源:Bloomberg,公司公告,東北證券 1.3.ScalingLaw 打破算力需求天花板,AI 服務器打開長期成長空間 我們認為,我們認為,Scalinglaw 的想象空間和的想象空間和 Mooreslaw 的限制同時拉高了的限制同時拉高了 AI 服務器的需服務器的需求上限。求上限。具體來看:ScalingLaw 在機器學習和深度學習中主要描述了模型規模、數據量、計算量等因素在機器學習和深度學習中主要描述了模型規模、數據量、計
39、算量等因素與模型性能之間的關系。與模型性能之間的關系。最早提出 ScalingLaws 的關鍵論文是 OpenAI 在 2020 年發表的ScalingLawsforNeuralLanguageModels(Kaplanetal.,2020)。這篇論文系統性地研究了模型參數、數據量和計算量如何影響語言模型的性能表現,提出了以下幾個主要結論:模型參數數量:模型參數數量:增加模型的參數數量可以有效提升模型的性能,特別是在較大規模數據集上訓練時,較大的模型更具優勢。數據量:數據量:增大數據量同樣有助于提升模型性能。但數據和模型參數規模的增長并不是獨立的,而是有一個最佳的比例。計算資源:計算資源:給定
40、相同的計算資源,通常存在一個最佳的模型參數與數據量的組合,使模型達到最佳性能。邊際收益遞減:邊際收益遞減:隨著模型參數數量和數據量的增加,性能提升的邊際效益會逐漸減小,表現為“冪律”關系。圖圖 8:ScalingLaw:隨著模型大小、數據集大小和訓練所用計算量的增加,語言模型的性能也會穩步提高:隨著模型大小、數據集大小和訓練所用計算量的增加,語言模型的性能也會穩步提高 數據來源:ScalingLawsforNeuralLanguageModels,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 9/28 工業富聯工業富聯/公司深度公司深度 ScalingLaw 反映了大語言
41、模型的性能與參數量、數據量、計算資源量成正比,即更優質的模型需要由大參數、大數據量進行訓練,同時需要計算速度更快的硬件進行支持。隨著大語言模型進入萬億級參數量,AI 算力需求同步提升。單個芯片單個芯片的計算速度或算力的計算速度或算力與與晶體管的數量晶體管的數量呈正相關,呈正相關,而晶體管數量由晶體管密度、而晶體管數量由晶體管密度、面積、芯片架構設計共同影響。面積、芯片架構設計共同影響。從晶體管密度角度看,從晶體管密度角度看,MooresLaw 的放緩的放緩限制了晶體管密度的增長限制了晶體管密度的增長,制程的迭代,制程的迭代已無法大幅提升芯片的性能。已無法大幅提升芯片的性能。參考臺積電工藝,16
42、nm/10nm 制程晶體管密度分別為28M 晶體管/平方毫米和 60M 晶體管/平方毫米,晶體管密度增長 114%。對比之下,5nm 制程晶體管密度為約 171M 晶體管/平方毫米,3nm 工藝晶體管密度約為 250M晶體管/平方毫米,密度增長約為 46%。根據臺積電公開發布的信息,N2(2nm)工藝將使晶體管的密度提升 15%。由工藝制程帶來的晶體管密度提升已經趨緩由工藝制程帶來的晶體管密度提升已經趨緩,摩爾,摩爾定律定律逐步失效逐步失效。表表 3:臺積電:臺積電 2011 年以來制程及晶體管密度年以來制程及晶體管密度 制程節點 28nm 20nm 16nm 10nm 7nm 5nm 3nm
43、 推出時間 2011 年 2014 年 2015 年 2016 年 2018 年 2020 年 2022 年 晶體管密度(每平方毫米百萬晶體管,MTr/mm)6MTr/mm 16MTr/mm 28MTr/mm 60MTr/mm 91MTr/mm 171MTr/mm 250MTr/mm 數據來源:臺積電官網,東北證券整理 從芯片面積角度看,從芯片面積角度看,800mm被認為是芯片面積的上限。被認為是芯片面積的上限。超過800mm后,制造、成本、良品率、封裝、散熱等方面的挑戰會顯著增加,導致生產變得極為困難和不經濟。1)良率)良率&制造成本:制造成本:大面積芯片的缺陷概率更高,每個晶圓上的缺陷隨機
44、分布的,面積越大,受到缺陷影響的概率越高。2)封裝:)封裝:面積更大的芯片需要更復雜的封裝,尤其在大功率的高性能芯片中,這會導致封裝設計和制造成本上升。3)光)光刻設備限制:刻設備限制:隨著芯片面積的增大,光刻的曝光和對準精度需求也提高。表表 4:英偉達數據中心英偉達數據中心 GPU Roadmap GPU V100 A100 H100 B200 制程 12nm 7nm 4nm N4P 推出時間 2017 2020 2022 2024 芯片面積(mm)815 826 814 1628 數據來源:英偉達官網,東北證券整理 基于以上結論,單個芯片的算力存在瓶頸。盡管目前芯片公司采用 Chiplet
45、 架構,將一個大面積芯片的功能拆分為多個較小的模塊,通過高速互連技術組合在一起,但這種方式帶來的算力增長依舊有限。由摩爾定律放緩帶來的單芯片性能提升瓶頸越由摩爾定律放緩帶來的單芯片性能提升瓶頸越來越明顯,萬億參數級別的大模型訓練可能需要更多的來越明顯,萬億參數級別的大模型訓練可能需要更多的 AI 服務器、更大規模的算服務器、更大規模的算力集群來實現。力集群來實現。模型發布進展迅猛,為模型發布進展迅猛,為 AI 算力投入增長帶來持續性算力投入增長帶來持續性。進入大模型時代以來,模型架構經歷了由傳統千億參數 Transformer 模型到萬億 MoE 大模型,到 AI 視頻模型,再到推理模型(o1
46、)的轉變。所需的訓練算力和推理算力的消耗也相應發生變化:請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 10/28 工業富聯工業富聯/公司深度公司深度 1.傳統傳統 Transformer 模型(如模型(如 BERT、GPT 系列)系列)依賴于自注意力機制,參數規模巨大,通常達到數億到數千億級別。自注意力機制的計算復雜度隨序列長度呈二次增長,導致訓練大型模型時算力需求極高。2.MixtureofExperts(MoE)模型模型在訓練中需要管理多個專家的選擇和優化,訓練過程比傳統 Transformer 更復雜。門控機制需要進行額外的學習,確保正確的專家被選中。此外,稀疏激活也可能導致
47、負載不均衡問題,需要進行負載平衡優化。稀疏激活的特性使得其總體推理效率通常仍優于傳統的大型 Transformer。3.AI 視頻生成模型(如視頻生成模型(如 Sora):):視頻數據的高維度(時間和空間)導致計算量呈指數增長。模型需要處理時空特征,模型通常包含 3D 卷積或時序建模機制。推理方面,如果需要實時視頻生成,算力需求極高。4.邏輯推理模型(如邏輯推理模型(如 o1):):在訓練階段算力需求類似于大語言模型。但因為需要調用思維鏈 CoT,推理側需求出現倍增。訓練側:大模型訓練側:大模型支持更多模態,參數規模擴展增加算力需求。支持更多模態,參數規模擴展增加算力需求。隨著多模態模型 GP
48、T-4(Vision)和 Gemini 的首次亮相,多模態模型的研究從早期的多模態理解主機按過渡到多模態內容生成。當前多模態大語言模型采用并聯式框架,多模態數據送到各自模態的編碼器后轉換為大語言模型的文本編碼,再由大語言模型處理后,經過特定模態的轉換器后輸出。未來的多模態模型可能會促進多模態融合,即在不同數據模態之間實現無縫的信息共享和轉換,構建通用表征空間,使文本、圖像、音頻等模態的信息在共享空間中自由傳遞和相互影響,從而增強理解和生成能力。整合不同模態信息的復雜結構可能會導致參數量、模型的層數、計算單元顯著增加,多模態也將帶來數據量需求的提升,從而導致訓練側算力需求擴大。請務必閱讀正文后的
49、聲明及說明請務必閱讀正文后的聲明及說明 11/28 工業富聯工業富聯/公司深度公司深度 圖圖 9:多模態大模型時間軸多模態大模型時間軸 數據來源:MM-LLMs:RecentAdvancesinMultiModalLargeLanguageModels,東北證券 圖圖 10:多模態模型并聯型架構:多模態模型并聯型架構 數據來源:MM-LLMs:RecentAdvancesinMultiModalLargeLanguageModels,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 12/28 工業富聯工業富聯/公司深度公司深度 推理側:視頻生成、推理優化模型帶動推理側算力需
50、求指數級增長。推理側:視頻生成、推理優化模型帶動推理側算力需求指數級增長。目前最新發布的視頻生成模型大多數為 DiT 模型,相較于前一代 Video Diffusion Model 和大語言模型,除本身參數量增長外,模型不僅要按幀生成圖片,還需要引入時間這一維度,捕捉幀間關系,從而增加了推理的計算量。而 OpenAI 在 2024 年 9 月發布的 o1 模型則將Scaling Law擴展至推理,在推理過程中引入思維鏈(CoT,Chain of Thought),將輸入問題拆解為多個邏輯步驟,每增加一個步驟,推理計算量成倍增加。參考OpenAI 對于 o1 模型的定價,邏輯推理類模型的推理算力
51、消耗至少為同等參數量大語言模型的 3-4 倍。圖圖 11:Sora 視頻生成模型視頻生成模型 DiT 架構原理架構原理 數據來源:OpenAI 官網,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 13/28 工業富聯工業富聯/公司深度公司深度 圖圖 12:o1 模型引入模型引入 ChainofThought,大幅提升邏輯推理能力,大幅提升邏輯推理能力 數據來源:OpenAI 官網,東北證券 1.4.高端 AI 服務器形態發生變化,產業鏈得到重塑 AI 服務器綜述:訓練端產業鏈由英偉達主導,推理端百花齊放。服務器綜述:訓練端產業鏈由英偉達主導,推理端百花齊放。根據 Tren
52、dForce,從 AI 服務器搭配 AI 芯片類型來看,預計 2024 年主流搭載 GPU 的 AI 服務器占比為 71%,其中英偉達憑借 H200 產品,市占率逼近 9 成,AMD 市占率約為 8%;CSPs自研 ASIC 服務器出貨量占整體 AI 服務器的比重有望達到 26%。而展望 2025 年,市場對于高階 AI 服務器需求仍強,尤其以英偉達新一代 Blackwell 將取代 Hopper平臺成為市場主流,且出貨形式有望從 8 卡 HGX 服務器向機柜轉移。表表 5:2024 年搭載年搭載 ASIC 自研芯片自研芯片 AI 服務器的出貨占比服務器的出貨占比 Company 2022 2
53、023 2024F NVIDIA 67.6%65.5%63.6%AMD(inl.Xilinx)5.7%7.3%8.1%Intel(inl.Altera)3.1%3.0%2.9%Others 23.6%24.1%25.3%Total 100.0%100.0%100.0%數據來源:TrendForce,東北證券 英偉達下一代英偉達下一代 Blackwell 架構的架構的服務器出貨形態較服務器出貨形態較 Hopper 發生較大變化。發生較大變化。從產品體系來看,目前 Blackwell 系列產品包括超級芯片超級芯片 GB200 對應的機柜級產品對應的機柜級產品、高性高性能能 HGX 系統系統 HGX
54、B100/B200 等等。Blackwell 擁有 2080 億個晶體管,是 NVIDIA Hopper GPU 晶體管數量的 2.5 倍以上,并使用臺積電(TSMC)為 NVIDIA 量身定制的 4NP 工藝制造,單芯片算力高達 20petaFLOPS。B200 將兩個晶片合并為一個GPU,顯著提升了計算能力,并通過單一的、速度為 10TB/s 的高帶寬接口 NV-HBI連接。GB200 超級芯片超級芯片由 2 顆 Blackwell GPU 和 1 顆 Grace CPU 組成,并通過 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 14/28 工業富聯工業富聯/公司深度公司深度
55、 NVlink-C2C 進行連接,提供 900GB/s 雙向帶寬。在 GB200 超級芯片的基礎上,還設計了 GB200 NVL72 集群集群,在一個機柜級設計中連接了 36 個 GB200 超級芯片。Hopper 系列產品則包括 HGXH200/H100 系統和 GH200。HGXH200/H100 為配置了8 個 GPU 的服務器產品;GH200 超級芯片由 1 顆 Hopper GPU 和 1 顆 Grace CPU 組成,通過 NVlink-C2C 進行連接。表表 6:英偉達:英偉達 Hopper、Blackwell 芯片芯片產品參數產品參數 H100 SXM H200 GH200 B
56、100 B200 GB200 FP64 34 TFLOPS 34 TFLOPS 34 TFLOPS 90 TFLOPS FP64 Tensor Core 67 TFLOPS 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLPOS 90 TFLOPS FP32 67 TFLOPS 67 TFLOPS 67 TFLOPS 180 TFLOPS TF32 Tensor Core 989 TFLOPS 989 TFLOPS 989|494 TFLOPS 0.9|1.8 PFLOPS 1.12|2.25 PFLOPS 2.5|5 PFLOPS BF16 Tensor Core 1
57、979 TFLOPS 1979 TFLOPS 1979|990 TFLOPS 1.8|3.5 PFLOPS 2.25|4.5 PFLOPS 5|10 PFLOPS FP16 Tensor Core 1979 TFLOPS 1979 TFLOPS 1979|990 TFLOPS 1.8|3.5 PFLOPS 2.25|4.5 PFLOPS 5|10 PFLOPS FP8 Tensor Core 3958 TFLOPS 3958 TFLOPS 3958|1979 TFLOPS 3.5|7 PFLOPS 4.5|9 PFLOPS 10|20 PFLOPS FP4 Tensor Core 7|14 P
58、FLOPS 9|18 PFLOPS 20|40 PFLOPS INT8 Tensor Core 3958 TOPS 3958 TFLOPS 3958|1979 TOPS 3.5|7 PFLOPS 4.5|9 PFLOPS 10|20 PFLOPS HBM size 80GB 141GB 96GB HBM3|144GB HBM3e 192GB 192GB 至多 384GB HBM Bandwidth 3.35TB/s 4.8TB/s 至多 4TB/s|至多4.9TB/s 8TB/s 8TB/s 至多16TB/s Nvlink-C2C bandwidth 900GB/s 900GB/s 900GB
59、/s 1.8TB/s 1.8TB/s 21.8TB/s power 至多 700W 至多 700W 450-1000W 1000W 700W 至多2700W PCIe links 128GB/s 128GB/s 至多4PCIe x16(Gen5)數據來源:英偉達官網,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 15/28 工業富聯工業富聯/公司深度公司深度 表表 7:英偉達:英偉達 Hopper、Blackwell 模組模組/機柜級產品參數機柜級產品參數 HGX H100 HGX H200 HGX B200 GB200 NVL72 GPUs 8 8 8 36 GB200
60、 superchips FP64 270 TFLOPS 270 TFLOPS 40 TFLOPS 68 TFLOPS FP64 Tensor Core 540 TFLOPS 540 TFLOPS 40 TFLOPS 134 TFLOPS FP32 540 TFLOPS 540 TFLOPS 80 TFLOPS 134 TFLOPS TF32 Tensor Core 8 PFLOPS 8 PFLOPS 2.2 PFLOPS 1979|990 TFLOPS BF16 Tensor Core 16 PFLOPS 16 PFLOPS 4.5 PFLOPS 3958|1979 TFLOPS FP16 T
61、ensor Core 16 PFLOPS 16 PFLOPS 4.5 PFLOPS 3958|1979 TFLOPS FP8 32 PFLOPS 72 PFLOPS FP6 72 PFLOPS FP4 Tensor Core 144 PFLOPS 720|1440 PFLOPS INT8 32 PFLOPS 72 PFLOPS power 1000W 900-2000W 數據來源:英偉達官網,東北證券 預計機柜級產品將成為明年預計機柜級產品將成為明年 Blackwell 架構產品出貨的主要形式。架構產品出貨的主要形式。鴻海發言人曾在法說會上回應,預計今年第四季度小量生產 GB200 服務器,2
62、025 年大量出貨;鴻海年度科技日上,董事長劉揚偉表示市場對 Blackwell 芯片的需求達到“瘋狂程度”,計劃到 2025 年產能達到 20000 臺英偉達 NVL72 機柜。GB200 超級芯片將 CPU 和GPU 都位于同一塊 PCB 板上,降低了插入損耗,提升了 CPU 和 GPU 之間的通訊能力;GB200NVL72 引入了尖端功能和第二代 Transformer 引擎,支持 FP4AI,與第五代 NVIDIA NVLink 結合使用時,可為萬億參數語言模型提供 30 倍的實時 LLM推理性能;與 NVIDIAH100 風冷基礎設施相比,GB200 在相同功率下可以提供 25倍的性
63、能。因此對于 Blackwell 架構,GB200 機柜級產品在算力、連接、功耗方面較 8GPUHGX 服務器更具有性價比,將成為未來的主要出貨形式。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 16/28 工業富聯工業富聯/公司深度公司深度 圖圖 13:GB200NVL72 機柜級產品在大模型推理、訓練速度、能效、數據查詢能力等方面遠超機柜級產品在大模型推理、訓練速度、能效、數據查詢能力等方面遠超 HGXH100 數據來源:英偉達官網,東北證券 英偉達英偉達 GB200 機柜預計將推出機柜預計將推出 4 種外形尺寸種外形尺寸。除 GB200NVL72 形式的機柜外,根據 semi
64、analysis,英偉達還推出了 GB200NVL36*2,GB200NVL36x2(Ariel)和x86B200NVL72/NVL36x2 形態,為客戶提供更多選擇。具體來看:GB200NVL72:每個機架大約 120kW 功率,由 18 個 1U 計算托盤和 9 個NVSwitch 托盤組成。每個計算托盤高度為 1U,包含 2 個 Bianca 板。每個 Bianca板由 1 個 Grace CPU 和 2 個 Blackwell GPU 組成。NVSwitch 托盤包含兩個28.8Tb/sNVSwitch5ASIC。GB200NVL36*2:是兩個并排互連的機架,每個機架包含 18 個
65、Grace CPU 和36 個 Blackwell GPU。每個計算托盤高 2U,包含 2 個 Bianca 板。每個 NVSwitch托盤都有兩個 28.8Tb/sNVSwitch5ASIC 芯片。每個 NVSwitch 托架都有 18 個1.6T 雙端口 OSFP 殼體,可水平連接到一對 NVL36 機架。每個機架的功率和冷卻密度為每機架 66kW,總共為 132kW。NVL36 版本預計將成為無法支持機架密度 120kW 數據中心的首選。GB200NVL36*2(Ariel):在 NVL36x2 的基礎上,將計算托盤中的 Bianca 板替換為 Ariel 板,包含 1 個 Grace
66、CPU 和 1 個 Blackwell GPU。這一機架主要由Meta 用于推薦系統訓練和推理工作負載,這類任務對 CPU 內核要求更高。x86B200NVL72/NVL36x2:或將于 2025 年二季度推出,用 x86CPU 替代原本GB200 中的 Grace CPU。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 17/28 工業富聯工業富聯/公司深度公司深度 圖圖 14:NVL72 和和 NVL36*2 架構架構 數據來源:Semianalysis,東北證券 在在 HGX、DGX 平臺基礎上,面向平臺基礎上,面向 GB200 機柜,英偉達預計還將推出機柜,英偉達預計還將推出
67、 MGX 版本,版本,給予給予 CSP 廠商定制空間,擴大用戶的選擇面。廠商定制空間,擴大用戶的選擇面。DGX 為英偉達標準化平臺,不支持定制,DGX GB200 機柜預計將由英偉達直接向客戶銷售,主要客戶群體包括中小數據中心、主權數據中心等。MGX 提供模塊化參考設計,OEM 和 ODM 合作伙伴可以用不同的用例構建定制的解決方案,允許 GPU、CPU、DPU 的不同配置,包括Grace、x86 或其他 Arm CPU。MGX 的主要客戶群體為大型 CSPs。HGX/DGX/MGX三種模式在產業鏈分工上也略有差異。三種模式在產業鏈分工上也略有差異。HGX 模式下,GPU 模組、板卡、服務器的
68、制造環節幾乎全部由 ODM 廠商進行,最終交付給品牌服務器廠商出貨給不同客戶;對于 DGX GB200 機柜,芯片制造、封裝環節完成后,由 ODM 廠商代工,將其組裝為 Compute Board、Switch Board 等,再根據英偉達提供的標準,組裝為機柜,并交付給英偉達,由英偉達出貨給終端客戶;對于 MGXGB200 機柜,ODM 完成Compute Board、Switch Board 等環節的組裝后即交付英偉達,再由英偉達將標準的模塊化組件出貨給服務器 ODM 廠商,根據 CSP 的設計要求組裝為機柜并交付。對對于于 GB200 機柜級產品,機柜級產品,ODM 廠商的分工均較廠商的
69、分工均較 HGX 模式發生了變化,由于機柜本模式發生了變化,由于機柜本身價值量提升,技術難度相應增長,身價值量提升,技術難度相應增長,ODM 廠商貢獻的價值也將隨之提升。廠商貢獻的價值也將隨之提升。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 18/28 工業富聯工業富聯/公司深度公司深度 圖圖 15:HGX/DGX/MGX 三種模式的產業鏈分工三種模式的產業鏈分工 數據來源:東北證券整理 明年預計將推出明年預計將推出 B300 等新產品形態,進一步等新產品形態,進一步提升顯存提升顯存,為,為 CSPs、OEM 廠商廠商提供提供更多選擇。更多選擇。根據 Trendforce10 月
70、報告,NVIDIA 最近將其所有 Blackwell Ultra 產品更名為 B300 系列:B200Ultra 更名為 B300,GB200Ultra 更名為 GB300,B200AUltra和 GB200AUltra 分別更新為 B300A 和 GB300A。B300 系列預計將于 2025 年第二季度和第三季度之間推出;B300A 專門針對 OEM 客戶,預計在 2025 年第二季度開始量產。Nvidia 的 B100、B200 和 GB200 配備 192GBHBM3E 內存,使用 8-HiHBM3E內存堆棧,B300 和 GB300 將配備 288GB 的 HBM3E,使用 8 個
71、12-Hi 堆棧;B300A和 GB300A 將配備 144GB 內存,使用四個 12HiHBM3E 堆棧。機柜級 GB300NVL72產品預計將采用類似 GB200NVL72 的架構,一個計算托盤內包含 2 個 CPU 和 4 個GPU;GB300ANVL36 則減少了 CPU 的比例,CPU:GPU=1:4,為客戶提供更多CPU/GPU 配比選擇。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 19/28 工業富聯工業富聯/公司深度公司深度 表表 8:英偉達產品更名及配置預測:英偉達產品更名及配置預測 Old Name New Name Major Ser ver Sku HBM
72、 Type CoWoSType B100 B100 HGX HBM3e 8hi*8(192GB)CoWoS-L B200 B200 HGX HBM3e 8hi*8(192GB)CoWoS-L B200 Ultra B300 HGX HBM3e 12hi*8(288GB)CoWoS-L GB200 GB200 NVL72(main),NVL36 HBM3e 8hi*8(192GB)CoWoS-L GB200 Ultra GB300 NVL72(main),NVL36 HBM3e 12hi*8(288GB)CoWoS-L B200A Ultra B300A HGX,MGX HBM3e 12hi*4
73、(144GB)CoWoS-S GB200A Ultra GB300A NVL36,MGX HBM3e 12hi*4(144GB)CoWoS-S 數據來源:Trendforce,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 20/28 工業富聯工業富聯/公司深度公司深度 2.工業富聯:工業富聯:GB200 產業鏈的重要一環產業鏈的重要一環 2.1.服務器 ODM 核心參與者,受益于 CSP 定制化需求增長 公司云計算業務受公司云計算業務受 AI 拉動已呈現出高速增長態勢拉動已呈現出高速增長態勢,占整體收入比例提升,占整體收入比例提升。工業富聯的主要業務包括通信及移動網絡設備
74、、云計算、工業互聯網。本篇我們將著重分析公司的云計算業務。2023 年公司云計算實現營業收入 1943.07 億元,占整體營收的比重為 40.79%,為公司第二大業務。2024 年前三季度,云計算收入同比增長云計算收入同比增長 71%,其中云服務商收入同比增長 76%,占比 46%;AI 服務器占整體服務器營收比重提服務器占整體服務器營收比重提升至升至 45%,收入同比增長,收入同比增長 228%。2024Q3,公司 AI 服務器占整體服務器營業收入比重提升至 48%,占比逐季提升。通用服務器板塊也持續回溫,2024 年前三季度營業收入同比增長 22%。圖圖 16:工業富聯分項業務收入占比(:
75、工業富聯分項業務收入占比(%)圖圖 17:工業富聯:工業富聯云計算業務營業收入及增速(億元云計算業務營業收入及增速(億元/%)數據來源:iFind,東北證券 數據來源:iFind,東北證券 工業富聯云計算業務包含服務器、存儲設備、云服務設備高精密結構件。工業富聯云計算業務包含服務器、存儲設備、云服務設備高精密結構件。公司服務器領域已實現前端到后端的全產業鏈覆蓋,服務器業務的主要客戶為品牌服務器廠商(如 Dell、HPE)和云服務提供商(CSP,如 Amazon),品牌服務商提供服務器及相關解決方案給到終端企業及政府單位、電信運營商、有線電視運營商等。ODM Direct 服務器市場份額持續提升
76、,云計算為白牌服務器帶來發展機遇。服務器市場份額持續提升,云計算為白牌服務器帶來發展機遇。根據Bloomberg 數據,截至 2024Q2,全球服務器市場規模達到 542 億美元,其中 ODM direct 市占率連年提升,由 2020 年初的 25.5%提升至 38%;根據 Counterpoint,2021年 ODM Direct 實現收入 302 億美元,其中富士康實現收入 126 億美元,占比達到41.8%。云計算產業的發展使得服務器采購向頭部云廠商集中,而云廠商為了體現技術、服務的差異,普遍采購定制化服務器,直接向 ODM 廠商下單,由 ODM 根據要求提供代工、組裝服務后出貨給云廠
77、商。工業富聯涉及服務器生產的 L1-L12 所有環節,同時公司以往積累的供應鏈基礎使公司具備較強成本控制能力和交付能力,能夠更好地滿足 CSP 的定制化需求,提升 CSP 客戶的性價比。34.0%36.9%39.9%40.6%40.4%41.5%40.8%0%20%40%60%80%100%2017201820192020202120222023通信及移動網絡設備云計算工業互聯網-15.00%-10.00%-5.00%0.00%5.00%10.00%15.00%20.00%25.00%30.00%05001,0001,5002,0002,5002017 2018 2019 2020 2021
78、2022 2023云計算收入yoy 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 21/28 工業富聯工業富聯/公司深度公司深度 圖圖 18:服務器市占率(按市場規模計算:服務器市占率(按市場規模計算,%)數據來源:Bloomberg,東北證券 圖圖 19:2021 年全球服務器出貨份額(年全球服務器出貨份額(%)數據來源:Counterpoint,東北證券 2.2.與英偉達密切合作,有望提升機柜級方案中的價值量 富聯在富聯在 AI 服務器業務中保持了與英偉達的密切合作。服務器業務中保持了與英偉達的密切合作。富聯與英偉達的合作可追溯至 2017 年,深度參與了英偉達首臺 AI 服務
79、器的前期研發和產品設計。在英偉達近期推出的 AI 服務器供應鏈中,工業富聯是 A100/H100/B100/B200 板卡的獨家代工供應商;在 GPU 基板方面,公司也占據了較高的市場份額。公司還參與了 HGX 服務器的母版、服務器整機、機柜等制造環節,并出貨給品牌服務商和云廠商。在在 GB200 機柜的生產制造環節中,富聯參與的環節顯著機柜的生產制造環節中,富聯參與的環節顯著增加增加,份額有所提升。,份額有所提升。首先,GB200 相比傳統的 HGX 服務器,增加了計算托盤和交換托盤的制造環節,富0%10%20%30%40%2020/3/12020/6/12020/9/12020/12/12
80、021/3/12021/6/12021/9/12021/12/12022/3/12022/6/12022/9/12022/12/12023/3/12023/6/12023/9/12023/12/12024/3/12024/6/1ODM DirectDell TechnologiesSuper MicroHewlett Packard EnterpriseIEIT SystemsLenovoH3CIBM 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 22/28 工業富聯工業富聯/公司深度公司深度 聯深度參與了托盤的代工生產環節,價值量較板卡、基板有顯著提升;其次,GB200作為機柜級
81、方案,涉及服務器制造 L12 等級,較整機 L10 等級的難度更高,對 ODM廠商的技術能力也隨之提升,而富聯作為 L1-L12 等級全覆蓋的龍頭 ODM 廠商,其生產制造的技術能力更能夠獲得英偉達及頭部客戶的認可。同時,英偉達在 GB200中的參與度提升,DGX 模式的標準化機柜實際客戶為英偉達,而 MGX 模式也需要將計算托盤、交換托盤制造好后交付英偉達,CSP 客戶于英偉達方面采購這些模塊后,加入定制化設計,并交由 ODM 廠商生產?;谟ミ_和富聯持續的密切合作關系,富聯能夠深入參與到 DGX 模式和 MGX 模式的代工中,份額及 ASP 均顯著提升。此外,10 月 8 日,富士康母公
82、司鴻海宣稱公司正在墨西哥建設全球最大的英偉達 GB200 制造廠,以幫助緩解外界對英偉達 Blackwell 平臺的巨大需求;董事長劉揚偉強調,鴻海的供應鏈已經準備好,包括垂直整合的制造能力、還包括支持GB200 服務器基礎設施所需的先進冷液和散熱技術。新工廠的設立有望持續擴大GB200 產能,強化供應鏈穩定性。富聯布局富聯布局液冷業務,有望大批量供應于液冷業務,有望大批量供應于 GB200 機柜機柜。在英偉達 2024 GTC 大會上,工業富聯旗下子公司鴻佰科技(Ingrasys)出席展出了與英偉達合作開發的新一代 AI 服務器與液冷機柜等多項技術和解決方案。展出的 AI 服務器產品包括 I
83、ngrasys NVIDIA MGX 服務器,提供市場上最多樣化的 1U/2U/4U NVIDIA MGX 服務器產品組合,采用模塊化設計架構,實現高靈活、高擴展的 GPU、DPU 及 CPU 組合,用符合成本效益的方式打造多種服務器配置,同時縮短上市時間,滿足客戶不同加速運算需求;搭配液冷解決方案的 AI 加速器 GB6181,具備高效散熱能力,搭載八個 NVIDIA H100 Tensor Core GPU,適用于高效能的 AI 訓練,提供每秒 32 千兆次浮點運算(PFLOPS)的高性能算力,同時可輕松集成到客戶數據中心部署的 OCP ORv3 架構中支持下一代強大 GPU,為高性能人工
84、智能數據中心提供強大算力支持。此前,工業富聯還推出了針對 PCIe GPU 的采用液冷技術的模組化服務器,為客戶提供適配多種服務器的液冷方案。對于下一代 GB200 產品,單超級芯片功率或達到2700W,NVL72 總功率或將超過 120kW,使用液冷或成為發揮 Blackwell 最大潛力的必備。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 23/28 工業富聯工業富聯/公司深度公司深度 3.盈利預測盈利預測及投資建議及投資建議 3.1.主營業務收入拆分及預測 云計算業務是公司收入增長的重要驅動因素,因此我們對該業務進行了詳細的拆分和測算,并作出如下假設:1)云計算云計算:包括
85、AI 服務器及通用服務器。受益于北美云廠商資本開支增長、供給側產能提升等因素,我們預計 2024-2026 年,公司云計算業務收入有望達到2725/4130/5057 億元,同比增長 40%/52%/22%;預計 2024-2026 年云計算業務毛利率為 5.3%/5.2%/5.4%。2)通信及移動網絡設備通信及移動網絡設備:包括網絡設備、電信設備、精密結構件等業務。預計 AI將拉動高速交換機需求放量,iPhone 新機型出貨也將拉動精密結構件業務收入穩健增長。預計 2024-2026 年通信及移動網絡設備業務收入有望達到3090/3331/3568 億元,同比增長 10.8%/7.8%/7.
86、1%。3)工業互聯網工業互聯網:預計 2024-2026 年收入分別為 17.8/19.2/20.7 億元,同比增長8%/8%/8%。表表 9:工業富聯工業富聯分項業務分項業務收入收入預測(億元預測(億元/%)2023 2024E 2025E 2026E 總營業收入總營業收入 4,763.40 5,833.02 7,479.77 8,644.89 YoY-7%22.5%28.2%15.6%毛利率毛利率 8%7.8%7.3%7.2%云計算云計算 營業收入 1,943.08 2,725.16 4,130.00 5,056.59 YoY-9%40.2%51.6%22.4%毛利率 5%5.3%5.2%
87、5.4%通信及移動網絡設備通信及移動網絡設備 營業收入 2,789.76 3,090.08 3,330.57 3,567.56 YoY-6%10.8%7.8%7.1%毛利率 10%9.8%9.6%9.4%工業互聯網工業互聯網 營業收入 16.46 17.78 19.20 20.74 YoY-14%8%8%8%毛利率 50%50%50%50%數據來源:iFind,東北證券 3.2.投資建議 我們認為工業富聯作為英偉達核心供應商,將成為 AI 資本開支高速增長、算力投入持續提升的受益者。具體來看:1)北美云廠商仍將保持高額資本開支和 AI 算力開支;2)英偉達機柜級產品出貨在即,公司在該產品或將擁
88、有更高的市場份額;3)公司在液冷等方面的儲備有望增強公司的核心競爭力,并提升單臺價值量。公司云計算業務、通信網絡設備、精密結構件業務分別與浪潮信息、紫光股份、立訊精密的主營業務較為類似,因此我們選取這三家公司進行對比??杀裙?2024-2026 年對應的平均市盈率為 28x/23x/19x。我們預計公司將實現歸母凈利潤237/294/345 億元,同比增長 13%/24%/18%。對應 PE 分別為 20 x/16x/14x。給予“買入”評級。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 24/28 工業富聯工業富聯/公司深度公司深度 表表 10:可比可比公司公司估值估值分析分析
89、(截至截至 2024/11/15)EPS PE 公司名稱公司名稱 代碼代碼 市值(億元)市值(億元)2024E 2025E 2026E 2024E 2025E 2026E 浪潮信息 000977.SZ 724.44 1.54 1.91 2.26 31.90 25.83 21.75 紫光股份 000938.SZ 755.63 0.83 1.04 1.24 31.94 25.32 21.37 立訊精密 002475.SZ 2,841.97 1.89 2.39 2.90 20.92 16.52 13.63 可比公司平均可比公司平均 28.25 22.56 18.91 工業富聯工業富聯 601138.
90、SH 4,752.40 1.19 1.48 1.74 20.05 16.18 13.77 數據來源:iFind,東北證券 注:除工業富聯外,其他公司 EPS 與 PE 數據采用 iFind 一致預期。表表 11:工業富聯盈利預測工業富聯盈利預測 財務摘要(百萬元)財務摘要(百萬元)2023A 2024E 2025E 2026E 營業總收入(百萬)476,340 583,302 747,977 864,489 同比%-6.94%22.45%28.23%15.58%歸屬母公司凈利潤(百萬)21,040 23,700 29,377 34,519 同比%4.82%12.64%23.95%17.51%每
91、股凈收益(元)1.06 1.19 1.48 1.74 市盈率 14.26 20.05 16.18 13.77 市凈率 2.14 2.92 2.47 2.09 數據來源:iFind,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 25/28 工業富聯工業富聯/公司深度公司深度 4.風險提示風險提示 1、技術迭代不及預期的風險;2、供應鏈穩定性下降的風險;3、GB200 量產進度不及預期的風險;4、行業競爭加劇,毛利率下降的風險。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 26/28 工業富聯工業富聯/公司深度公司深度 附表:財務報表預測摘要及指標附表:財務報表預
92、測摘要及指標 Table_Forcast 資產負債表(百萬元)資產負債表(百萬元)2023A 2024E 2025E 2026E 現金流量表(百萬元)現金流量表(百萬元)2023A 2024E 2025E 2026E 貨幣資金 83,462 76,247 74,490 105,113 凈利潤凈利潤 21,018 23,700 29,377 34,519 交易性金融資產 333 333 333 333 資產減值準備 430 543 543 543 應收款項 88,474 108,341 138,927 144,095 折舊及攤銷 5,967 3,625 3,946 4,256 存貨 76,683
93、 93,611 120,316 138,905 公允價值變動損失-264 0 0 0 其他流動資產 2,138 2,138 2,138 2,138 財務費用 2,482 1,403 1,036 852 流動資產合計流動資產合計 252,478 282,317 338,238 392,888 投資損失 666 0 0 0 可供出售金融資產 運營資本變動 12,774-15,871-24,342-782 長期投資凈額 7,180 7,180 7,180 7,180 其他 10-404-204-236 固定資產 17,712 19,890 21,121 21,728 經營活動凈現金流量經營活動凈現金
94、流量 43,084 12,996 10,355 39,153 無形資產 1,004 1,004 1,004 1,004 投資活動凈現金流量投資活動凈現金流量-4,564-4,748-4,345-4,313 商譽 310 310 310 310 融資活動凈現金流量融資活動凈現金流量-24,734-15,204-7,766-4,217 非流動資產合計非流動資產合計 35,227 36,842 37,445 37,739 企業自由現金流企業自由現金流 27,736 7,631 4,734 33,644 資產總計資產總計 287,705 319,159 375,683 430,627 短期借款 41,
95、091 31,684 26,981 24,629 應付款項 75,028 92,122 118,782 137,501 財務與估值指標財務與估值指標 2023A 2024E 2025E 2026E 預收款項 0 0 0 0 每股指標每股指標 一年內到期的非流動負債 669 934 934 934 每股收益(元)1.06 1.19 1.48 1.74 流動負債合計流動負債合計 138,045 150,630 179,804 201,242 每股凈資產(元)7.06 8.20 9.68 11.42 長期借款 7,097 3,548 1,774 887 每股經營性現金流量(元)2.17 0.65 0
96、.52 1.97 其他長期負債 1,968 1,586 1,334 1,208 成長性指標成長性指標 長期負債合計長期負債合計 9,065 5,135 3,108 2,095 營業收入增長率-6.9%22.5%28.2%15.6%負債合計負債合計 147,110 155,765 182,912 203,337 凈利潤增長率 4.8%12.6%24.0%17.5%歸屬于母公司股東權益合計 140,187 162,987 192,363 226,883 盈利能力指標盈利能力指標 少數股東權益 408 408 408 408 毛利率 8.1%7.8%7.3%7.2%負債和股東權益總計負債和股東權益總
97、計 287,705 319,159 375,683 430,627 凈利潤率 4.4%4.1%3.9%4.0%運營效率指標運營效率指標 利潤表(百萬元)利潤表(百萬元)2023A 2024E 2025E 2026E 應收賬款周轉天數 70.34 60.73 59.50 58.92 營業收入營業收入 476,340 583,302 747,977 864,489 存貨周轉天數 63.29 57.00 55.54 58.13 營業成本 437,964 537,745 693,370 802,638 償債能力指標償債能力指標 營業稅金及附加 381 466 598 691 資產負債率 51.1%48
98、.8%48.7%47.2%資產減值損失-543-543-543-543 流動比率 1.83 1.87 1.88 1.95 銷售費用 1,024 1,254 1,459 1,686 速動比率 1.26 1.24 1.20 1.25 管理費用 4,226 5,175 5,888 5,940 費用率指標費用率指標 財務費用-586-266-489-638 銷售費用率 0.2%0.2%0.2%0.2%公允價值變動凈收益 264 0 0 0 管理費用率 0.9%0.9%0.8%0.7%投資凈收益-666 0 0 0 財務費用率-0.1%0.0%-0.1%-0.1%營業利潤營業利潤 23,067 26,0
99、75 32,320 37,978 分紅指標分紅指標 營業外收支凈額 57 0 0 0 股息收益率 2.4%0.0%0.0%0.0%利潤總額利潤總額 23,124 26,075 32,320 37,978 估值指標估值指標 所得稅 2,106 2,374 2,943 3,458 P/E(倍)14.26 20.05 16.18 13.77 凈利潤 21,018 23,700 29,377 34,519 P/B(倍)2.14 2.92 2.47 2.09 歸屬于母公司凈利潤歸屬于母公司凈利潤 21,040 23,700 29,377 34,519 P/S(倍)0.63 0.81 0.64 0.55
100、少數股東損益-22 0 0 0 凈資產收益率 15.6%14.5%15.3%15.2%資料來源:東北證券 股息收益率=(除權后年度每股現金紅利總和/報告首頁收盤價)*100%。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 27/28 工業富聯工業富聯/公司深度公司深度 研究團隊簡介:研究團隊簡介:Table_Introduction 李玖:北京大學光學博士,北京大學國家發展研究院經濟學學士(雙學位),電子科技大學本科,曾任華為海思高級工程師、光峰科技博士后研究員,具有三年產業經驗,2019 年加入東北證券,現任電子行業首席分析師。鄒杰:電子聯席首席分析師,上海交通大學核工程本科及博
101、士,曾任新財富第三團隊成員,水晶球第二團隊核心,覆蓋電子全產業鏈。吳雨萌:威斯康星大學麥迪遜分校理學碩士,曾在華安證券計算機組從事行業研究,2022 年加入東北證券。分析師聲明分析師聲明 作者具有中國證券業協會授予的證券投資咨詢執業資格,并在中國證券業協會注冊登記為證券分析師。本報告遵循合規、客觀、專業、審慎的制作原則,所采用數據、資料的來源合法合規,文字闡述反映了作者的真實觀點,報告結論未受任何第三方的授意或影響,特此聲明。投資評級說明投資評級說明 股票 投資 評級 說明 買入 未來 6 個月內,股價漲幅超越市場基準 15%以上。投資評級中所涉及的市場基準:A 股市場以滬深 300 指數為市
102、場基準,新三板市場以三板成指(針對協議轉讓標的)或三板做市指數(針對做市轉讓標的)為市場基準;香港市場以摩根士丹利中國指數為市場基準;美國市場以納斯達克綜合指數或標普 500指數為市場基準。增持 未來 6 個月內,股價漲幅超越市場基準 5%至 15%之間。中性 未來 6 個月內,股價漲幅介于市場基準-5%至 5%之間。減持 未來 6 個月內,股價漲幅落后市場基準 5%至 15%之間。賣出 未來 6 個月內,股價漲幅落后市場基準 15%以上。行業 投資 評級 說明 優于大勢 未來 6 個月內,行業指數的收益超越市場基準。同步大勢 未來 6 個月內,行業指數的收益與市場基準持平。落后大勢 未來 6
103、 個月內,行業指數的收益落后于市場基準。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 28/28 工業富聯工業富聯/公司深度公司深度 重要聲明重要聲明 本報告由東北證券股份有限公司(以下稱“本公司”)制作并僅向本公司客戶發布,本公司不會因任何機構或個人接收到本報告而視其為本公司的當然客戶。本公司具有中國證監會核準的證券投資咨詢業務資格。本報告中的信息均來源于公開資料,本公司對這些信息的準確性和完整性不作任何保證。報告中的內容和意見僅反映本公司于發布本報告當日的判斷,不保證所包含的內容和意見不發生變化。本報告僅供參考,并不構成對所述證券買賣的出價或征價。在任何情況下,本報告中的信息或
104、所表述的意見均不構成對任何人的證券買賣建議。本公司及其雇員不承諾投資者一定獲利,不與投資者分享投資收益,在任何情況下,我公司及其雇員對任何人使用本報告及其內容所引發的任何直接或間接損失概不負責。本公司或其關聯機構可能會持有本報告中涉及到的公司所發行的證券頭寸并進行交易,并在法律許可的情況下不進行披露;可能為這些公司提供或爭取提供投資銀行業務、財務顧問等相關服務。本報告版權歸本公司所有。未經本公司書面許可,任何機構和個人不得以任何形式翻版、復制、發表或引用。如征得本公司同意進行引用、刊發的,須在本公司允許的范圍內使用,并注明本報告的發布人和發布日期,提示使用本報告的風險。若本公司客戶(以下稱“該客戶”)向第三方發送本報告,則由該客戶獨自為此發送行為負責。提醒通過此途徑獲得本報告的投資者注意,本公司不對通過此種途徑獲得本報告所引起的任何損失承擔任何責任。東北證券股份有限公司東北證券股份有限公司 地址地址 郵編郵編 中國吉林省長春市生態大街 6666 號 130119 中國北京市西城區錦什坊街 28 號恒奧中心 D 座 100033 中國上海市浦東新區楊高南路 799 號 200127 中國深圳市福田區福中三路 1006 號諾德中心 34D 518038 中國廣東省廣州市天河區冼村街道黃埔大道西 122 號之二星輝中心 15 樓 510630