人工智能行業專題研究:豆包大模型迎來重磅更新AI應用繁榮推動算力基礎設施建設-241231(23頁).pdf

編號:187528 PDF  DOCX 23頁 2.40MB 下載積分:VIP專享
下載報告請您先登錄!

人工智能行業專題研究:豆包大模型迎來重磅更新AI應用繁榮推動算力基礎設施建設-241231(23頁).pdf

1、 請閱讀最后評級說明和重要聲明 分析師:吳起滌 執業登記編號:A0190523020001 研究助理:程治 執業登記編號:A0190123070008 人工智能指數與滬深 300 指數走勢對比 資料來源:Wind,源達信息證券研究所 1.人工智能專題研究系列一:大模型推動各行業AI應用滲透 2023.08.02 2.人工智能專題研究系列二:AI大模型開展算力競賽,推動AI基礎設施建設2023.08.03 3.人工智能專題研究系列三:Gemini1.0有望拉動新一輪AI產業革新,算力產業鏈受益確定性強2023.12.12 4.人工智能專題研究系列四:OpenAI發布Sora文生視頻模型,AI行業

2、持續高速發展2024.02.19 5.人工智能專題研究系列五:Kimi智能助手熱度高漲,國產大模型加速發展2024.03.26 6.數據中心液冷技術專題研究:算力擴建浪潮下服務器高密度、高耗能特征顯著,催動液冷技術市場快速擴容2024.08.15 投資評級:看好-40%-20%0%20%40%2024/12024/52024/9人工智能指數滬深300豆包大模型迎來重磅更新,AI 應用繁榮推動算力基礎設施建設 人工智能行業專題研究 證券研究報告/行業研究 投資要點 豆包大模型重磅更新,有望帶動AI應用市場繁榮 2024年12月火山引擎冬季FORCE原動力大會推出豆包視覺理解大模型和3D生產大模型

3、,并對通用模型Pro、音樂生產模型和文生圖模型性能升級。根據智源研究院發布的FlagEval“百?!痹u測結果,豆包通用模型Pro在大語言模型總榜中主觀評測得分最高,豆包視覺理解模型和文生圖模型在多模態模型主觀測評中得分第二。豆包視覺理解大模型和3D生產大模型具備的內容識別、視覺描述和3D內容生成能力進一步增強AI應用實用性,而使用成本相比行業價格可降低85%,有望推動AI應用市場的商業繁榮。大模型的大規模商業化應用已成熟,拉動算力基礎設施建設 人工智能行業已跨過AI大模型大規模成熟商業化應用的節點,國內廠商加大對AI Agent等新一代人工智能應用的投入。AI大模型性能提升所需的千億級參數訓練

4、及應用端繁榮對算力規模的需求,都將推動算力基礎設施的建設。根據IDC數據,2024年全球人工智能資本開支有望達2350億美元,并預計2028年增長至6320億美元,復合增速達29%。此外生成式人工智能資本開支2024-2028年GAGR有望達59%,顯著高于其他人工智能技術的22%。算力基礎設施建設趨勢下,核心供應鏈環節將充分受益 人工智能行業帶動算力基礎設施建設趨勢下,服務器、液冷設備、芯片及光模塊等是供應鏈的核心環節。1)服務器:服務器是算力載體,AI服務器比普通服務器對算力及存儲性能要求更高,2024年全球普通AI服務器和高端AI服務器出貨量分別為72.5和54.3萬臺,分別同比增長54

5、.2%和172.0%。2)液冷設備:液冷服務器具有低能耗、高散熱優點,符合高算力數據中心需求;3)芯片:芯片是算力大腦,卡脖子風險最高,國產芯片亟待突破。4)光模塊:800G和1.6T高端光模塊用量有望大幅提升,國產公司在全球市場具有領先地位。投資建議 豆包大模型產品力大幅提升,并大幅降低人工智能大模型使用成本,有望推動AI應用的商業繁榮。建議關注服務器、液冷設備、芯片和光模塊等領域的投資機會:1)服務器:浪潮信息、中科曙光;2)液冷設備:英維克;3)芯片:海光信息;4)光模塊:中際旭創、天孚通信、光迅科技。風險提示 AI應用滲透不及預期;算力開支不及預期;宏觀經濟不及預期;競爭加劇。2 目錄

6、 一、豆包大模型產品力大幅增強,推動 AI 應用商業繁榮.4 二、人工智能產業加快增長,應用及算力是兩大支柱.8 三、算力產業鏈:服務器是算力基礎設施.11 1.大模型打開算力需求,服務器建設規??焖僭鲩L.11 2.液冷技術低能耗高散熱,受益算力擴建浪潮.12 四、算力產業鏈:芯片是智能核心,國產化短板明顯.16 五、算力產業鏈:光模塊快速放量,產品結構向高端升級.18 六、投資建議.21 1.建議關注.21 2.行業重點公司一致盈利預測.21 七、風險提示.22 圖表目錄 圖 1:豆包大模型產品矩陣豐富.4 圖 2:豆包視覺理解模型具備更強內容識別能力.5 圖 3:豆包視覺理解模型具備更強理

7、解和推理能力.5 圖 4:火山引擎首次發布豆包 3D 生成模型.5 圖 5:豆包 3D 生成模型可根據文本生成 3D 場景.5 圖 6:豆包通用模型 Pro 綜合能力大幅提升.6 圖 7:通用模型 Pro 在指令遵循、代碼、數學等指標對標 GPT-4o.6 圖 8:豆包文生圖模型能力升級.6 圖 9:豆包音樂模型能力升級.6 圖 10:豆包通用模型 Pro 在大模型測評總榜中排名第一.7 圖 11:豆包視覺理解模型在視覺語言模型測評榜單中排名第二.7 圖 12:豆包視覺理解模型使用成本大幅低于行業平均水平.7 圖 13:豆包 APP 在 11 月全球 AI 產品榜中排名第二.7 圖 14:預計

8、 2022-2024 年全球 AI 支出年增速高于 20%.8 圖 15:預計 2024 年中國智能算力規模同比增長 50%.8 圖 16:IDC 預計 2024-2028 年全球人工智能資本開支復合增速 GAGR 達 29%.9 圖 17:IDC 預計 2028 年軟件資本開支將占人工智能支出的 57%.9 圖 18:AI 服務器出貨量高速增長.11 圖 19:搭載鯤鵬 920 處理器的鯤鵬服務器主板.12 圖 20:華為推出昇騰系列 AI 算力基礎設施.12 圖 21:傳統風冷技術與液冷技術原理對比.13 圖 22:液冷技術散熱能力顯著優于風冷技術.13 圖 23:液冷技術節能水平顯著優于

9、風冷技術.13 3 圖 24:2019-2022 年中國液冷數據中心市場規模.15 圖 25:2022-2027 年中國液冷數據中心市場規模預測.15 圖 26:Nvidia GPU H200 芯片示意圖.16 圖 27:H200 較 H100 相比在存儲性能上有大幅提升.16 圖 28:AI 大模型中東西向流量顯著增加.18 圖 29:葉脊網絡架構適用于東西向流量傳輸.18 圖 30:Nvidia DGX H100 架構示意圖.19 圖 31:全球光模塊市場在 2027 年有望突破 200 億美元.20 表 1:人工智能大模型的參數規模呈指數級增長趨勢.8 表 2:國內廠商加大對 AI Ag

10、ent 等大模型驅動下的人工智能應用的投入.10 表 3:具有 1750 億個模型參數的大模型訓練一天需要約 2917 臺 Nvidia A100 服務器.11 表 4:主流液冷技術與傳統風冷技術冷卻效果指標對比.14 表 5:不同密度數據中心適用的冷卻技術.14 表 6:國產 AI 芯片性能指標仍與國際頂尖水平存在較大差距.16 表 7:BIS 禁令限制高性能 AI 芯片向中國出口.17 表 8:葉脊網絡架構對光模塊數量需求大幅提升.18 表 9:Nvidia DGX H100 架構所需 GPU、交換機數量.19 表 10:中際旭創在 2023 年全球光模塊企業排名中位居第一.20 表 11

11、:萬得一致盈利預測.21 4 一、豆包大模型產品力大幅增強,推動 AI 應用商業繁榮 2024 年 12 月火山引擎冬季 FORCE 原動力大會推出豆包視覺理解大模型和 3D 生產大模型,并將通用模型 Pro、音樂生產模型和文生圖模型升級,進一步豐富產品矩陣。2024 年5 月火山引擎春季 FORCE 原動力大會首次發布豆包大模型系列產品以來,僅 7 個月就再度升級,并在多項大模型能力測評榜單中居于前列。本次大會新推出的豆包視覺理解大模型和3D 生產大模型拓展了模型的內容識別、視覺描述和 3D 內容生成能力,并顯著降低使用成本,有望推動人工智能應用端的商業繁榮。圖 1:豆包大模型產品矩陣豐富

12、資料來源:火山引擎,源達信息證券研究所 豆包視覺理解模型具備更強內容識別能力和理解推理能力。豆包視覺理解模型具備強大的圖片理解與推理能力及精準的指令理解能力。模型在圖像文本信息抽取、基于圖像的推理任務上有展現出了強大的性能,能夠應用于更復雜、更廣泛的視覺問答任務。比如模型可描述圖片內容并根據圖片內容進行提問。此外,該模型可完成深度的圖片理解與推理,在表格圖像、數學問題、代碼圖像等復雜推理場景下完成任務。5 圖 2:豆包視覺理解模型具備更強內容識別能力 圖 3:豆包視覺理解模型具備更強理解和推理能力 資料來源:火山引擎,源達信息證券研究所 資料來源:火山引擎,源達信息證券研究所 火山引擎冬季 F

13、ORCE 原動力大會首次發布豆包 3D 生成模型。該模型可支持文生 3D、圖生 3D 及多模態生成等諸多功能,模型與火山引擎數字孿生平臺 veOmniverse 結合使用,可高效完成智能訓練、數據合成和數字資產制作,成為一套支持 AIGC 創作的物理世界仿真模擬器。圖 4:火山引擎首次發布豆包 3D 生成模型 圖 5:豆包 3D 生成模型可根據文本生成 3D 場景 資料來源:火山引擎,源達信息證券研究所 資料來源:火山引擎,源達信息證券研究所 火山引擎對豆包通用模型 Pro 進行升級,模型性能大幅提升。豆包通用模型 Pro 相比 2024年 5 月發布版本,在綜合能力上提升 32%,與 GPT

14、-4o 持平,而使用成本僅是其八分之一。模型在指令遵循、代碼、專業知識、數學層面對齊 GPT-4o 水平,其中指令遵循能力提升9%,代碼能力提升 58%,GPQA 專業知識方面能力提升 54%,數學能力提升 43%,推理能力提升 13%。6 圖 6:豆包通用模型 Pro 綜合能力大幅提升 圖 7:通用模型 Pro 在指令遵循、代碼、數學等指標對標 GPT-4o 資料來源:火山引擎,源達信息證券研究所 資料來源:火山引擎,源達信息證券研究所 火山引擎對豆包文生圖模型和音樂模型能力升級。1)豆包文生圖模型:模型在通用性、可控性、高質量方面實現突破,并新增一鍵海報和一鍵 P 圖功能,可根據用戶簡單指

15、令對圖片進行精準編輯,并加強了對文字細節的指令遵循能力。2)豆包音樂模型:可根據用戶簡單描述或上傳圖片,生成時長 3 分鐘的包含旋律、歌詞和演唱等元素在內的音樂作品,包括前奏、主歌、副歌、間奏、過渡段等復雜結構,并支持局部修改功能,在針對部分歌詞修改后仍能在原有旋律的節奏框架內適配。圖 8:豆包文生圖模型能力升級 圖 9:豆包音樂模型能力升級 資料來源:火山引擎,源達信息證券研究所 資料來源:火山引擎,源達信息證券研究所 豆包大模型能力顯著提升,在多項能力測評中排名前列。根據 2024 年 12 月 19 日智源研究院發布的 FlagEval“百?!痹u測結果,在閉源大模型評測能力總榜中,豆包通

16、用模型 Pro在大語言模型總榜中主觀評測得分最高;多模態模型評測總榜中,豆包視覺理解模型和文生圖模型的主觀測評得分均排名第二。7 圖 10:豆包通用模型 Pro 在大模型測評總榜中排名第一 圖 11:豆包視覺理解模型在視覺語言模型測評榜單中排名第二 資料來源:智源研究院,源達信息證券研究所 資料來源:智源研究院,源達信息證券研究所 豆包視覺理解模型使用成本大幅低于行業平均水平,有望推動 AI 應用商業化成熟。根據火山引擎冬季 FORCE 原動力大會數據,豆包視覺理解模型的使用成本是 0.003 元/千 Tokens,大幅低于 GPT-4o 的 0.0175 元/千 Tokens,比行業價格低

17、85%,大模型使用成本降低有望推動 AI 應用商業化。根據 AI 產品榜數據,豆包 APP 在 2024 年 11 月全球 AI 產品榜中排名第二,在終端應用的滲透率進一步提升。圖 12:豆包視覺理解模型使用成本大幅低于行業平均水平 圖 13:豆包 APP 在 11 月全球 AI 產品榜中排名第二 資料來源:火山引擎,源達信息證券研究所 資料來源:智源研究院,源達信息證券研究所 8 二、人工智能產業加快增長,應用及算力是兩大支柱 AI 大模型對算力需求大,推動 AI 基礎設施建設。AIGC 行業進入高速發展期,AI 大模型性能持續提升的背后是千億級以上的參數訓練,帶來對算力的高額需求,有望推動

18、新一輪 AI基礎設施建設。根據 OpenAI 官網,AI 模型訓練計算量自 2012 年起每 3.4 個月就增長一倍。以 GPT-3 模型為例,根據 lambdalabs 數據,該模型參數規模達 1750 億,完整訓練運算量達 3640PFlop/s-days(以 3640PFlop/s 速度進行運算,需要 3640 天)。模型完成單次訓練約需要 355 個 CPU 年并耗費 460 萬美元(假設采用 Nvidia Tesla V100 芯片)。表 1:人工智能大模型的參數規模呈指數級增長趨勢 Models Release time Developers Parameter size/10-8

19、 Sample size/10-9 GPT-1 2018 OpenAI 1.17 10 BERT 2018 Google 3.40 34 GPT-2 2019 OpenAI 15.00 100 Fairseq 2020 Meta 130.00 GPT-3 2020 OpenAI 1750.00 4990 GLaM 2021 Google 1200.00 16000 LaMDA 2022 Google 1370.00 15600 GPT-4 2023 OpenAI Ernie Bot 2023 Baidu SparkDesk 2023 iFLYTEK 1700.00 PanguLM 2023 H

20、UAWEI 30000 資料來源:大語言模型研究現狀及趨勢,源達信息證券研究所 高算力需求迫切,推動 AI 基礎設施建設。高訓練算力需要與相應基礎設施匹配,根據 2022-2023中國人工智能計算力發展評估報告 預計,2024中國智能算力規模將達641EFlop/s,同比增長 50%,并預計 2025 年中國智能算力將達 923Eflop/s,同比增長 44%。圖 14:預計 2022-2024 年全球 AI 支出年增速高于 20%圖 15:預計 2024 年中國智能算力規模同比增長 50%資料來源:IDC,世界銀行,源達信息證券研究所 資料來源:IDC,源達信息證券研究所 16.9%29.0

21、%26.6%27.9%26.3%10.6%16.9%17.6%17.0%16.2%-3.3%5.7%2.9%3.0%3.0%-10%0%10%20%30%40%202020212022E2023E2024EAI支出增幅DX支出增幅GDP增幅31.7 75.0 155.2 268.0 427.0 640.7 922.8 1271.4 0%50%100%150%050010001500中國智能算力規模(EFlop/s)YOY(%,右軸)9 IDC 預計 2024 年全球人工智能資本開支達 2350 億美元,并預計 2028 年增長至 6320 億美元,復合增速達 29%。此外生成式人工智能資本開支

22、 2024-2028 年 GAGR 有望達 59%,顯著高于其他人工智能技術的 22%。圖 16:IDC 預計 2024-2028 年全球人工智能資本開支復合增速 GAGR 達 29%資料來源:IDC,源達信息證券研究所 根據 IDC 數據,人工智能支出排名前三的行業是軟件和信息服務、銀行及零售業,預計在2024 年的 AI 投資達 896 億美元,占全球市場的 38%。銀行業將顯著增加對欺詐分析和調查等 AI 服務的需求。而軟件開支未來在人工智能支出中占比最高,預計將顯著帶動 IAAS、SAAS、PAAS 等云端服務市場的增長。圖 17:IDC 預計 2028 年軟件資本開支將占人工智能支出

23、的 57%資料來源:IDC,源達信息證券研究所 10 大模型加速發展趨勢下,國內廠商加大對 AI Agent 等新一代人工智能應用的投入。AI Agent 是一種以 AI 大模型驅動的人工智能工具,可根據具體場景實現高度個性化和智能化的智能服務,有望將大模型的潛力最大化,推動 AI 技術應用化,加速人工智能產業商業化。表 2:國內廠商加大對 AI Agent 等大模型驅動下的人工智能應用的投入 公司名稱 大模型產品 阿里云 百煉大模型服務平臺 AWS Amazon bedrock 以及 partyrock.aws 等工具 百度智能云 TiAppBuilder、AgentBuilder 京東云

24、Al Agent 開發管理平臺 螞蟻集團/螞蟻數科 螞蚊 Al Studio+Max 昆侖萬維 SkyAgents 商湯科技 MaaS 平臺-應用智能體 深信服科技 AI 算力平臺 神州數碼 神州問學-AI 應用及 Agent 管理 騰訊云 騰訊元器 月之暗面 Kimi Plus 中國電信(天翼 AI)智能體開發運營平臺 字節跳動 火山引擎 Al Agent 開發管理平臺、豆包 APP 360 360 智腦、360 智匯云 資料來源:IDC,源達信息證券研究所 11 三、算力產業鏈:服務器是算力基礎設施 1.大模型打開算力需求,服務器建設規??焖僭鲩L 大模型發展打開算力需求,AI 算力服務器需

25、求有望增長。自 OpenAI 發布 ChatGPT 后,AI大模型有望成為助力千行萬業智能化轉型的底層支撐。AI 大模型的訓練和運行過程對對算力需求極大,預計將推動一輪算力中心的建設。以 Nvidia A100 服務器為例(由 8 個 A100 GPU 構成),單臺服務器算力約為 5Pflop/s,則訓練一個具有 1750 億個模型參數的大模型需要約 2917 臺 A100 服務器。表 3:具有 1750 億個模型參數的大模型訓練一天需要約 2917 臺 Nvidia A100 服務器 模型參數(億個)350 700 1050 1400 1750 所需算力(E+8PFlop/s)0.63 1.

26、26 1.89 2.52 3.15 有效算力比率(%)25%25%25%25%25%實際算力需求(E+8PFlop/s)2.52 5.04 7.56 10.08 12.6 服務器算力(PFlop/s)5 5 5 5 5 每日工作時間(s)86400 86400 86400 86400 86400 服務器需求數(臺)583 1167 1750 2333 2917 資料來源:Nvidia 官網,OpenAI,源達信息證券研究所 人工智能行業高速發展,算力巨額缺口推動 AI 服務器出貨量高速增長。2023 年全球普通AI 服務器/高端 AI 服務器出貨量分別為 47.0 和 27.0 萬臺,較 20

27、22 年分別同比增長 36.6%和 490.5%,并預計 2024 年全球普通 AI 服務器和高端 AI 服務器出貨量分別為 72.5 和 54.3萬臺,分別同比增長 54.2%和 172.0%。圖 18:AI 服務器出貨量高速增長 資料來源:華勤技術投資者關系公眾號,源達信息證券研究所 020406080202220232024E高端AI服務器(萬臺)普通AI服務器(萬臺)12 華為加大算力基礎設施研發力度。目前華為算力基礎設施布局中:鯤鵬系列以通用算力為主,昇騰系列以智能算力為主,均采用國產芯片打造。華為憑借自身強大的研發能力,已實現從算力、存力、互聯技術和計算架構等方面為世界提供第二選擇

28、,打造算力堅實底座。從產業鏈布局看,目前華為主要負責服務器或其中核心器件的研發和生產,并由下游服務器廠商代理銷售,主要的華為系服務器廠商有高新發展(對華鯤振宇持股 70%)、四川長虹、神州數碼、拓維信息和烽火通信等。此外 2023 年 3 月中興通訊宣布自身服務器將為百度“文心一言”提供算力支撐。圖 19:搭載鯤鵬 920 處理器的鯤鵬服務器主板 圖 20:華為推出昇騰系列 AI 算力基礎設施 資料來源:華為官網,源達信息證券研究所 資料來源:華為官網,源達信息證券研究所 2.液冷技術低能耗高散熱,受益算力擴建浪潮 液冷技術相較于傳統風冷技術,具有低能耗、高散熱、低噪聲和低 TCO 等優點,符

29、合數據中心高能耗、高密度的發展趨勢:1)高效散熱:液體的冷卻能力是空氣的 1000-3000 倍,使得液冷技術更適用于高能耗、高功率的服務器應用場景。2)節能降耗:液冷系統可實現更高能效比,降低數據中心能耗。液冷技術(尤其是浸沒式液冷)可將數據中心的PUE值降至1.2以下,相較于傳統風冷技術,可以節省電量3050%。3)提高設備可靠性:液冷技術可以減少因高溫引起的設備故障,延長服務器的使用壽命,并避免因風扇引起振動和噪音。4)節省空間:液冷技術允許更緊湊的服務器布局,無需像風冷那樣需要較大的空氣流通空間,從而節省了數據中心的占地面積。5)提高功率密度:液冷技術可以支持更高的機架功率密度,滿足高

30、性能計算和 AI 應用的需求。浸沒式液冷方案可以將單機架功率提升到 100kW 甚至 200kW 以上。13 圖 21:傳統風冷技術與液冷技術原理對比 資料來源:曙光數創招股說明書,源達信息證券研究所 圖 22:液冷技術散熱能力顯著優于風冷技術 圖 23:液冷技術節能水平顯著優于風冷技術 資料來源:中興液冷技術白皮書,源達信息證券研究所 資料來源:中興液冷技術白皮書,源達信息證券研究所 冷板式和浸沒式等主流液冷技術在散熱性、集成度、能效等冷卻效果指標上顯著優于傳統風冷技術。14 表 4:主流液冷技術與傳統風冷技術冷卻效果指標對比 傳統風冷 冷板液冷 浸沒單相液冷 浸沒相變液冷 散熱性能 0+集

31、成度 0+可維護性 0+可靠性 0+性能 0+能效 0+廢熱回收 0+噪音 0+資料來源:曙光數創招股說明書,源達信息證券研究所 人工智能變革和數字經濟轉型趨勢下,數據中心往高能耗、高密度方向發展,液冷技術應用漸廣。傳統的風冷方式只能滿足 2.7kW/機柜的數據中心散熱需求,無法適應中高密度數據中心需求。液冷技術利用高比熱容的特點和對流傳熱的能力,可以滿足 2.7-30kW/機柜的數據中心散熱需求,解決超高熱流密度的散熱問題,未來液冷技術必將在數據中心領域得到愈加廣泛的應用。表 5:不同密度數據中心適用的冷卻技術 每平方功率 數據中心密度 制冷方式 1.2Kw/機柜以下 超低密度數據中心 風冷

32、 1.2-2.7kW/機柜 低密度數據中心 風冷 2.7-7.5kW/機柜 中、低密度數據中心 風冷/液冷 7.5-18kW/機柜 中、高密度數據中心 冷板式液冷 18-30kW/機柜 高密度數據中心 冷板式液冷/浸沒式液冷 資料來源:曙光數創招股說明書,源達信息證券研究所 根據 2023中國液冷數據中心市場深度研究報告,預計 2025 年中國液冷數據中心市場規模有望達 377.6 億元,同比增長 56%?;谑袌鲂枨蟀l展及產業生態建設進程,未來五年中國液冷數據中心市場將以 59%的復合增長率持續發展。預計到 2027 年,AI 大模型商用落地,液冷生態趨于成熟,市場規模將出現較大幅度增長,有

33、望達到 1020 億元。15 圖 24:2019-2022 年中國液冷數據中心市場規模 圖 25:2022-2027 年中國液冷數據中心市場規模預測 資料來源:中國液冷數據中心市場深度研究報告,源達信息證券研究所 資料來源:中國液冷數據中心市場深度研究報告,源達信息證券研究所 16 四、算力產業鏈:芯片是智能核心,國產化短板明顯 Nvidia H200 是目前最先進的人工智能芯片。2023 年 11 月 13 日 Nvidia 推出新款人工智能芯片 GPU H200,與公司上一代產品 H100 相比在存儲性能上得到大幅提升,而在算力層面性能指標未有顯著改變。圖 26:Nvidia GPU H2

34、00 芯片示意圖 圖 27:H200 較 H100 相比在存儲性能上有大幅提升 H200 SXM H100 SXM Memory Clock 6.5Gbps HBM3E 5.24Gbps HBM3 Memory Bus width 6144-bit 5129-bit Memory Bandwidth 4.8TB/sec 3.35TB/sec 資料來源:Nvidia,源達信息證券研究所 資料來源:Nvidia,源達信息證券研究所 國產 AI 芯片短板明顯,下一代產品推進順利。我們通過對國內寒武紀、華為昇騰和沐曦等國產公司旗下的 AI 旗艦芯片與 Nvidia H100 SXM 的性能指標對比,可

35、以看到國產 AI 芯片與 Nvidia H100 在性能上仍存在較大差距。同時國產芯片公司仍在加快研發推進下一代 AI芯片產品,并有望在未來對標Nvidia H100,如寒武紀在研的思元590、沐曦在研的MXC500等。表 6:國產 AI 芯片性能指標仍與國際頂尖水平存在較大差距 公司 Nvidia 寒武紀 華為 沐曦 產品型號 H100 SXM 思元 370 昇騰 910 曦思 N100 FP32 67TFlop/s 24TFlop/s/FP16 1979TFlops/s 96TFlop/s 320TFlop/s 80TFlop/s INT8 3958Top/s 256Top/s 640To

36、p/s 160Top/s 資料來源:各公司公告,源達信息證券研究所 美國對 AI 芯片出口管制,自主可控要求下國產芯片需求迫切。2022 年 10 月 7 日美國商務部工業安全局(BIS)發布美國商務部對中華人民共和國(PRC)關于先進計算和半導體實施新的出口管制制造細則,其中管制物項 3A090、4A090 包含高性能 AI 芯片產品,而Nvidia A100 和 H100 均符合管制要求。在此背景下,Nvidia 推出性能閹割的中國特供版芯片 A800 和 H800。我們認為在國內自主可控大背景下,國內 AI 產業對國產芯片需求迫切,或加大對國產芯片公司支持力度,國產 AI 芯片有望迎來技

37、術進步和市場機遇。17 表 7:BIS 禁令限制高性能 AI 芯片向中國出口 管制物項 管制范圍 3A090 1、輸入輸出(I/O)雙向傳輸速度高于 600GB/s;2、算力性能與精度指令比特長度乘積超過 4800 4A090 1、含有超過 3A090 技術指標芯片的計算機、電子組件和相關部件 資料來源:美國商務部,源達信息證券研究所 18 五、算力產業鏈:光模塊快速放量,產品結構向高端升級 高算力需要與高效傳輸架構相匹配。AI 大模型通常由多個服務器作為節點,并通過高速網絡架構組成集群合作完成模型訓練。因此在模型中東西向流量(數據中心服務器間的傳輸流量)大幅增加,而模型訓練過程中南北向流量(

38、客戶端與服務器間的傳輸流量)較少,由于葉脊網絡架構相較傳統三層架構更適用于東西向流量傳輸,成為現代數據中心主流網絡架構。圖 28:AI 大模型中東西向流量顯著增加 圖 29:葉脊網絡架構適用于東西向流量傳輸 資料來源:華為云,源達信息證券研究所 資料來源:鵝廠網事,源達信息證券研究所 葉脊網絡架構大幅增加對光模塊數量需求。由于葉脊網絡架構中東西向流量大,因此服務器與交換機相連均需使用光模塊,從而大幅增加對光模塊數量需求。同時 AI 大模型的高流量對帶寬提出更高要求,800G 光模塊相較 200G/400G 光模塊具有高帶寬、功耗低等優點,有望在 AI 大模型網絡架構中滲透率提升。表 8:葉脊網

39、絡架構對光模塊數量需求大幅提升 架構類型 傳統三層架構 改進等三層架構 葉脊網絡架構 光模塊相對于機柜倍數 8.8 9.2 44/48 資料來源:中際旭創定向增發募集說明書,源達信息證券研究所 我們以 Nvidia DGX H100 網絡架構為例。該架構適配 Nvidia H100 GPU,采用葉脊網絡架構,分為 1-4 個 SU 單元類型(8 個 GPU 組成一個 H100 服務器節點,32 個服務器節點組成一個 SU 單元)。其中 4-SU 單元架構由 127 個服務器節點組成(其中一個節點用于安裝 UFM 網絡遙測裝置),具有 1016 個 H100 GPU、32 個葉交換機、16 個脊

40、交換機。19 表 9:Nvidia DGX H100 架構所需 GPU、交換機數量 資料來源:Nvidia,源達信息證券研究所 我們以 Nvidia DGX H100 架構為例測算 GPU 與光模塊的對應數量。在 4-SU 的 Nvidia DGX H100 架構中,每 32 臺服務器節點組成一個 SU 單元,并與 8 臺葉交換機相連,因此服務器節點與葉交換機之間共有 1024 個連接(3284);32 臺葉交換機需分別與 16 臺脊交換機相連,因此葉交換機與脊交換機之間共有 512 個連接(3216);在 Nvidia DGX H100 的目前方案中,脊-葉連接采用 800G 光模塊,需要

41、1024 個 800G 光模塊;葉-服務器連接中,每個服務器節點通過一個 800G 光模塊與兩臺葉交換機向上連接,需要 512 個 800G 光模塊(1284),同時每臺葉交換機通過一個 400G 光模塊與一個服務器節點連接,需要 1024 個 400G 光模塊(1288)。綜上計算得一個 4-SU 單元的 DGX H100 架構需要 1016 個 GPU、1536 個 800G 光模塊、1024 個 400G 光模塊,GPU:800G 光模塊:400G 光模塊的比例約等于 1:1.5:1。圖 30:Nvidia DGX H100 架構示意圖 資料來源:Nvidia,源達信息證券研究所 根據L

42、ightcounting預測,全球光模塊市場規模在2025年有望達170億美元,并在2025-2027 年或將以 CAGR=11%的復合增速增長,2027 年有望突破 200 億美元。20 圖 31:全球光模塊市場在 2027 年有望突破 200 億美元 資料來源:Lightcounting,源達信息證券研究所 國產光模塊廠商在 2023 年全球光模塊企業 TOP10 排名中占據 7 席。TOP10 中國內企業為中際旭創(Innolight)、華為(Huawei)、光迅科技(Accelink)、海信(Hisense)、新易盛(Eoptolink)、華工正源(HGG)、索爾思光電(已被華西股份收

43、購)。而在高端光模塊領域,中際旭創已在 2024 年實現 1.6TG 光模塊批量出貨,并加快對 3.2T 等更高端光模塊技術的研發。表 10:中際旭創在 2023 年全球光模塊企業排名中位居第一 2021 2022 2023-&Innolight Innolight&Coherent Innolight Coherent Huawei(HiSilicon)Cisco(Acacia)Huawei(HiSilicon)Cisco(Acacia)Huawei(HiSilicon)Cisco(Acacia)Hisense Accelink Accelink Broadcom(Avago)Hisense

44、 Hisense Eoptolink Eoptolink Eoptolink Accelink HGG HGG Molex Intel Source Photonics Intel Source Photonics Marvell 資料來源:Lightcounting,源達信息證券研究所 21 六、投資建議 1.建議關注 豆包大模型產品力大幅提升,產品矩陣進一步豐富,并大幅降低人工智能大模型使用成本,配合豆包 APP 在終端應用滲透率的提升,有望推動 AI 應用的商業繁榮。伴隨 AI 應用需求增長,打開算力高額需求缺口,推動算力基礎設施建設。建議關注服務器、液冷設備、芯片和光模塊等領域的投資機

45、會:1)服務器:浪潮信息、中科曙光;2)液冷設備:英維克;3)芯片:海光信息;4)光模塊:中際旭創、天孚通信、光迅科技。2.行業重點公司一致盈利預測 表 11:萬得一致盈利預測 公司 代碼 歸母凈利潤(億元)PE 總市值(億元)2023E 2024E 2025E 2023E 2024E 2025E 浪潮信息 000977.SZ 22.9 28.5 34.0 34.2 27.5 23.0 781 中科曙光 603019.SH 21.7 26.6 32.0 50.0 40.7 33.9 1083 英維克 002837.SZ 5.4 7.2 9.4 56.1 41.9 32.3 303 海光信息 6

46、88041.SH 19.0 27.2 36.5 187.9 131.7 98.1 3579 中際旭創 300308.SZ 53.4 88.0 108.9 27.5 16.7 13.5 1471 天孚通信 300394.SZ 14.4 23.2 30.3 36.9 22.9 17.6 531 光迅科技 002281.SZ 7.8 10.9 13.7 56.7 40.5 32.3 440 資料來源:Wind 一致預期(2024/12/30),源達信息證券研究所 22 七、風險提示 算力資本開支不及預期;AI 應用滲透不及預期;宏觀經濟環境惡化;競爭格局惡化。23 投資評級說明 行業評級 以報告日后

47、的 6 個月內,證券相對于滬深 300 指數的漲跌幅為標準,投資建議的評級標準為:看 好:行業指數相對于滬深 300 指數表現10%以上 中 性:行業指數相對于滬深 300 指數表現10%10%以上 看 淡:行業指數相對于滬深 300 指數表現10%以下 公司評級 以報告日后的 6 個月內,行業指數相對于滬深 300 指數的漲跌幅為標準,投資建議的評級標準為:買 入:相對于恒生滬深 300 指數表現20以上 增 持:相對于滬深 300 指數表現1020 中 性:相對于滬深 300 指數表現1010之間波動 減 持:相對于滬深 300 指數表現10以下 辦公地址 石家莊 上海 河北省石家莊市長安

48、區躍進路 167 號源達辦公樓 上海市浦東新區峨山路91弄100號陸家嘴軟件園2號樓701室 分析師聲明 作者具有中國證券業協會授予的證券投資咨詢執業資格并注冊為證券分析師,以勤勉的職業態度,獨立、客觀地出具本報告。分析邏輯基于作者的職業理解,本報告清晰準確地反映了作者的研究觀點。作者所得報酬的任何部分不曾與,不與,也不將與本報告中的具體推薦意見或觀點而有直接或間接聯系,特此聲明。重要聲明 河北源達信息技術股份有限公司具有證券投資咨詢業務資格,經營證券業務許可證編號:911301001043661976。本報告僅限中國大陸地區發行,僅供河北源達信息技術股份有限公司(以下簡稱:本公司)的客戶使用

49、。本公司不會因接收人收到本報告而視其為客戶。本報告的信息均來源于公開資料,本公司對這些信息的準確性和完整性不作任何保證,也不保證所包含信息和建議不發生任何變更。本公司已力求報告內容的客觀、公正,但文中的觀點、結論和建議僅供參考,不包含作者對證券價格漲跌或市場走勢的確定性判斷。本報告中的信息或所表述的意見均不構成對任何人的投資建議,投資者應當對本報告中的信息和意見進行獨立評估。本報告僅反映本公司于發布報告當日的判斷,在不同時期,本公司可以發出其他與本報告所載信息不一致及有不同結論的報告;本報告所反映研究人員的不同觀點、見解及分析方法,并不代表本公司或其他附屬機構的立場。同時,本公司對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司及作者在自身所知情范圍內,與本報告中所評價或推薦的證券不存在法律法規要求披露或采取限制、靜默措施的利益沖突。本報告版權僅為本公司所有,未經書面許可,任何機構和個人不得以任何形式翻版、復制和發布。如引用須注明出處為源達信息證券研究所,且不得對本報告進行有悖原意的引用、刪節和修改??d或者轉發本證券研究報告或者摘要的,應當注明本報告的發布人和發布日期,提示使用證券研究報告的風險。未經授權刊載或者轉發本報告的,本公司將保留向其追究法律責任的權利。

友情提示

1、下載報告失敗解決辦法
2、PDF文件下載后,可能會被瀏覽器默認打開,此種情況可以點擊瀏覽器菜單,保存網頁到桌面,就可以正常下載了。
3、本站不支持迅雷下載,請使用電腦自帶的IE瀏覽器,或者360瀏覽器、谷歌瀏覽器下載即可。
4、本站報告下載后的文檔和圖紙-無水印,預覽文檔經過壓縮,下載后原文更清晰。

本文(人工智能行業專題研究:豆包大模型迎來重磅更新AI應用繁榮推動算力基礎設施建設-241231(23頁).pdf)為本站 (孔明) 主動上傳,三個皮匠報告文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對上載內容本身不做任何修改或編輯。 若此文所含內容侵犯了您的版權或隱私,請立即通知三個皮匠報告文庫(點擊聯系客服),我們立即給予刪除!

溫馨提示:如果因為網速或其他原因下載失敗請重新下載,重復下載不扣分。
客服
商務合作
小程序
服務號
折疊
午夜网日韩中文字幕,日韩Av中文字幕久久,亚洲中文字幕在线一区二区,最新中文字幕在线视频网站