《電子行業深度報告:AI新范式云廠商引領+內需為王-241229(43頁).pdf》由會員分享,可在線閱讀,更多相關《電子行業深度報告:AI新范式云廠商引領+內需為王-241229(43頁).pdf(43頁珍藏版)》請在三個皮匠報告上搜索。
1、本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 1 電子行業深度報告 AI 新范式:云廠商引領+內需為王 2024 年 12 月 29 日 Scaling Law 2.0,CSP 的私域數據成為關鍵。過去大模型的發展符合Scaling Law,然而當下公有數據逐步達到瓶頸,私域高精度數據或成為 Scaling Law 2.0 的核心要素。Open AI 前首席科學家 Ilya 在公開演講中提到,由于“我們已經達到了數據的峰值”,當前 AI 模型的預訓練方式可能走向終結。想要在特定領域訓練出垂直化的“專家大模型”,數據的精度、準確度等指標更為重要,私域數據、人工標注的數
2、據可能成為下一階段大模型發展過程中的核心競爭力,掌握私域數據的 CSP 廠商將在大模型廠商的下一輪競賽中更具優勢。CSP 異軍突起,百舸爭流的算力競爭時代開啟。當下 AI 大模型日益增長的算力需求對 CSP 廠商資本開支提出更高要求,考慮到成本優勢以及更好的靈活性,CSP 自研加速卡將成為未來 AI 芯片增量最核心的來源,英偉達在加速卡領域的市占率有望逐步被 CSP 廠商替代。與此同時,CSP 自研算力也帶來了算力產業鏈的全新變革,全新的 AEC、PCB、散熱、電源產業鏈冉冉升起,CSP 合作伙伴將在算力的下一個環節中更為受益。端側:豆包出圈,互聯網巨頭入局 AI 終端。AI 終端的發展經歷了
3、由云到端、由 ToB 到 ToC 的 5 個階段,當前我們處于以字節豆包為代表的互聯網巨頭引領的第五階段。早期 AI 終端更多是品牌廠商引領,而當前互聯網巨頭親自下場開發硬件,有望在 AI 終端產業鏈中發揮更加重要的作用。我們看好 AI+智能終端的趨勢,AI 將重構電子產業的成長,加速硬件的智能化、伴侶化趨勢。無論是手機、PC、AIOT、可穿戴設備、汽車電子,都有重估的潛力。投資建議:我們認為,伴隨著公開數據預訓練 scaling law 的結束,AI 產業敘事開始向云廠商合作伙伴轉移。從數據到模型,從訓練到推理,從云到端,CSP 廠商全面布局,形成了完美的商業閉環。當下,無論是海外的谷歌、亞
4、馬遜,還是國內的字節、騰訊,云廠商巨頭們開始接力,引領 AI 產業的下一棒。具體到投資方向,PCB、銅纜、溫控、電源等產業鏈,是國內企業深耕多年,具備優勢的環節。伴隨著本土云廠商的大力擴產,內需為王的時代也將來臨。相比過去,25 年的 AI 產業投資將更重視合作建立、訂單落地以及業績兌現,投資回報也會更為穩健。建議關注:1、云端算力:1)ASIC:寒武紀、海光信息、中興通訊;2)服務器:浪潮信息、工業富聯、華勤技術、聯想集團;3)AEC:新易盛、博創科技、瑞可達、兆龍互聯、立訊精密;4)銅連接:沃爾核材、精達股份;5)PCB:生益電子、廣合科技、深南電路、威爾高;6)散熱:申菱環境、英維克、高
5、瀾股份;7)電源:麥格米特、歐陸通、泰嘉股份。2、端側硬件:1)品牌:小米集團、漫步者、億道信息等;2)代工:國光電器、歌爾股份、天鍵股份、佳禾智能等;3)數字芯片:樂鑫科技、恒玄科技、星宸科技、富瀚微、中科藍訊、炬芯科技、全志科技等;4)存儲芯片:兆易創新、普冉股份;5)渠道配鏡:博士眼鏡、明月鏡片等。風險提示:大模型發展不及預期,CSP 自研算力不及預期,AI 終端銷量不及預期。重點公司盈利預測、估值與評級 代碼 簡稱 股價(元)EPS(元)PE(倍)評級 2024E 2025E 2026E 2024E 2025E 2026E 688041.SH 海光信息 155.05 0.84 1.12
6、 1.46 185 138 106 推薦 688800.SH 瑞可達 56.19 1.04 1.38 1.84 54 41 31 推薦 002851.SZ 麥格米特 60.72 1.13 1.53 1.95 54 40 31/300870.SZ 歐陸通 111.99 2.11 2.87 3.91 53 39 29/300499.SZ 高瀾股份 22.16 0.10 0.27 0.43 218 83 52/301018.SZ 申菱環境 38.98 0.77 1.02 1.24 51 38 31/002130.SZ 沃爾核材 29.22 0.73 0.95 1.14 40 31 26/600577
7、.SH 精達股份 8.02 0.26 0.34 0.41 31 23 20/688629.SH 華豐科技 38.89 0.20 0.46 0.63 196 84 62/資料來源:Wind,民生證券研究院預測;(注:股價為 2024 年 12 月 27 日收盤價;未覆蓋公司數據采用 wind 一致預期)推薦 維持評級 分析師 方競 執業證書:S0100521120004 郵箱: 分析師 宋曉東 執業證書:S0100523110001 郵箱: 研究助理 李伯語 執業證書:S0100123040030 郵箱: 相關研究 1.半導體行業 2025年度投資策略:如魚躍淵,升騰化龍-2024/12/25
8、2.EDA 和 IP 行業專題:半導體產業基石,國產替代打破壟斷格局-2024/12/25 3.半導體行業點評:國產 DDR5 突破,看好 DRAM 產業鏈-2024/12/23 4.電子行業動態:豆包出圈,解析字節的 AI 終端布局-2024/12/18 5.電子行業點評:11 月手機補貼落地,12 月iOS18.2 將至-2024/12/06 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 2 目錄 1 Scaling Law 2.0,CSP 的私域數據成為關鍵.3 1.1 關于 Scaling Law 的爭議,從數據規模到數據精度.3 1.2
9、 CSP 的三大利器:私域數據、推理需求、從云到端.5 2 CSP 異軍突起,百舸爭流的算力競爭時代開啟.9 2.1 從外采到自研,CSP 的算力升級之路.9 2.2 CSP 算力供應鏈新變革.16 3 端側:豆包出圈,互聯網巨頭入局 AI 終端.28 3.1 字節豆包先行,加速端側落地.28 3.2 AI 終端空間廣闊,SoC 是影響體驗的核心硬件.32 4 投資建議.36 4.1 行業投資建議.36 4.2 相關公司梳理.36 5 風險提示.40 插圖目錄.41 表格目錄.41 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 3 1 Scali
10、ng Law 2.0,CSP 的私域數據成為關鍵 1.1 關于 Scaling Law 的爭議,從數據規模到數據精度 1.1.1 大模型的摩爾定律,算力需求指數級增長 Scaling Law 是 AI 產業發展的通用規律,在 Scaling Law 下,大模型對算力的需求以每年 10 倍左右的速度增長,甚至超過了摩爾定律下半導體晶體管密度的增長速度。AI 大模型的算力需求在過去幾年呈現快速增長的態勢,Transformer算力需求在 2 年內增長 750 倍,平均每年以接近 10 倍的速度增長。以 Open AI的 GPT 為例,GPT 1 在 2018 年推出,參數量級為 1 億個,Open
11、 AI 下一代推出的 GPT 5 參數量級預計達到 10 萬億。圖1:AI 大模型對算力的需求超過摩爾定律 資料來源:CSDN,民生證券研究院 1.1.2 數據成為瓶頸,Scaling Law 放緩 大模型的 Scaling Law 表明,計算量、數據量、參數規模三個因素的增長能夠不斷提升大模型的性能。在任意其他兩個指標不受限制的情況下,大模型的性能和另一個因素都呈現冪律關系,在大模型過去的發展過程中,算力、數據量、參數規模三個指標均沒有達到上限,Scaling Law 仍然在發揮作用,大模型的性能也在持續改善。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證
12、券研究報告 4 圖2:Scaling Law 的三要素:算力、數據量、參數規模 資料來源:Elias Z.WangScaling Laws for Neural Language Models,民生證券研究院 然而公開數據量的有限性制約了 Scaling Law 進一步發揮作用。據 IDC,2018年全球數據總量為39.9ZB,預計到2028年,全球數據總量將達到393.8ZB,CAGR 增速為 25.7%,該增速遠遠低于 Scaling Law 下大模型參數和算力需求每年 10 倍左右的增長速度。Pablo Villalobos 等人的研究表明,在 2028 年左右,大模型能夠獲得的數據量級
13、將達到上限,受限于數據量,Scaling Law 將會放緩。實際上,由于大模型自 2022 年底以來的加速發展,數據量可能在 2028 年以前就會達到天花板,從而限制 Scaling Law 發揮作用。圖3:2018-2028 年全球數據量 圖4:大模型 Scaling Law 將在 2028 年左右開始顯著放緩 資料來源:IDC,民生證券研究院 資料來源:Will we run out of data?Limits of LLM scaling based on human-generated dataPablo Villalobos 等,民生證券研究院 1.1.3 Scaling Law
14、2.0,高精度私域數據的強化學習 當下傳統的 Scaling Law 受限于數據量,私域高精度數據或成為 Scaling Law 2.0 的核心要素。12 月 15 日,在 NeurIPS 大會上,Open AI 前首席科學家Ilya 在公開演講中提到,由于目前“我們已經達到了數據的峰值,未來不會再有更多的數據”,當前 AI 模型的預訓練方式可能走向終結。Ilya 的發言認為當前傳統的 Scaling Law 即將失效,新的 Scaling Law,即在特定領域的強化學習將發揮更行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 5 重要的作用。想要在
15、特定領域訓練出垂直化的“專家大模型”,數據的數量不再成為衡量數據好壞的唯一標準,數據的精度、準確度等指標更為重要,私域數據、人工標注的數據可能成為下一階段大模型發展過程中的核心競爭力。圖5:低精度的訓練數據增多可能反而對模型性能造成損害 圖6:使用更高精度的數據將減小因數據質量不佳而對模型性能造成的損害 資料來源:Scaling Laws for Precision,民生證券研究院 資料來源:Scaling Laws for Precision,民生證券研究院 1.2 CSP 的三大利器:私域數據、推理需求、從云到端 1.2.1 CSP:掌握私域數據,延續 Scaling Law 私域數據成為
16、延續 Scaling Law 的關鍵。隨著大模型規模及訓練集的擴大,可用于訓練的互聯網公開數據逐漸稀少,基于公開數據的 Scaling Law 逐步走到盡頭;擁有龐大用戶群體的互聯網巨頭,海外以 AWS、Meta、谷歌、微軟代表,國內以字節、阿里、騰訊、百度等為代表,掌握了用戶在使用過程中產生的大量私域數據,如 AWS 依托其購物平臺,積攢了大量用戶偏好及使用習慣數據,以及大量的商品文字/圖片數據;字節依托頭條及抖音平臺,積累了海量的資訊數據及視頻數據,可以為模型的訓練提供優質的語料,有力解決高質量數據匱乏導致的“Scaling Law 失效“問題。行業深度研究/電子 本公司具備證券投資咨詢業
17、務資格,請務必閱讀最后一頁免責聲明 證券研究報告 6 圖7:豆包大模型使用量快速增長 資料來源:字節跳動發布會,民生證券研究院 1.2.2 CSP:優質流量接口賦能推理側,具備推理成本優勢 算力需求會加速從訓練側向推理側傾斜,推理有望接力訓練,成為下一階段算力需求的主要驅動力?;ヂ摼W巨頭旗下亦擁有高活躍應用可以幫助引流,可以依托自身平臺流量推廣自家大模型,從而獲取客戶、積累數據;可以將大模型進一步綁定手中熱門應用,如可以讓自家大模型成為自家短視頻平臺輔助剪輯、修圖的工具。CSP 優質的流量接口可賦能推理側,實現從訓練模型到用戶使用大模型進行推理的正向循環,加速模型商業化落地。隨著端側 AI 的
18、放量及 AI 應用的落地,豆包、ChatGPT 等 AI 應用快速發展,AI 推理計算需求將快速提升,巴克萊的報告預計 AI 推理計算需求將占通用人工智能總計算需求的 70%以上,推理計算的需求甚至可以超過訓練計算需求,達到后者的 4.5 倍。OpenAI 上線的 o1 模型也更加側重于推理測能力。o1 新模型除預訓練階段外,還通過大量計算反復強化學習,并且在推理階段增加思考時間,獲得能力的提升,未來模型通過大量強化學習或者延長思考時間以獲得更準確的答案或成為可能。英偉達高級科學家 Jim Fan 認為 o1 模型的推出意味著模型開始呈現出推理側的 Scaling law,雙曲線的共同增長,有
19、望突破大模型能力的提升瓶頸。開發者訪問 o1 的成本更高,百萬 token 輸入/輸出收費為 GPT-4o 的 3/4 倍;復雜推理明顯拉動推理側算力需求。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 7 圖8:推理對模型重要性提升 資料來源:OpenAI,民生證券研究院 鑒于推理所需的芯片算力顯著低于訓練,盡管 AWS、谷歌為代表的 CSP 自研ASIC 起步較晚,整體性能低于英偉達的 GPU,但由于其較高的性價比,以及定制化的開發更加匹配自家模型的推理,云廠商可以通過 ASIC 降低推理成本,擴大自身優勢。博通于業績會透露,目前正在與三個非常
20、大型的客戶開發 AI 芯片,預計明年公司 AI 芯片的市場規模為 150 億-200 億美元。英偉達 GPU 目前在推理市場中市占率約 80%,但隨著大型科技公司定制化 ASIC 芯片不斷涌現,這一比例有望在 2028 年下降至 50%左右。圖9:谷歌 TPU 資料來源:谷歌,集微網,民生證券研究院 1.2.3 CSP:大模型賦能終端的重要參與者 硬件為大模型落地最重要的載體,從云到端為大模型落地的必經之路。復盤行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 8 AI 發展之路,從大模型推出以來,AI PC、AI+MR、AI 手機、AI 眼鏡等終端
21、陸續落地。我們認為 AI 終端的定價=硬件成本+AI 體驗,大模型體驗的優劣決定了用戶的付費意愿,而互聯網巨頭和第三方科技公司深度參與模型的開發,部分模型能力較強的廠商如字節、百度甚至親自下場開發硬件,因此我們認為互聯網巨頭有望在 AI 終端產業鏈中發揮更重要的作用。圖10:AI 發展歷程復盤 資料來源:聯想、蘋果、Open AI 官網等,民生證券研究院 1.2.4 結論:AI 發展的話語權將轉換至 CSP 我們認為,隨著公開數據 Scaling Law 的逐步終結,掌握私域數據的云廠商更有希望延續大模型訓練的 Scaling Law;隨著 AI 應用的逐步落地,AI 將由訓練端逐步轉向推理端
22、,云廠商自研 ASIC 將比通用 GPU 更具性價比,且自身具備優質的流量接口可賦能推理側;硬件是大模型落地最重要的硬件載體,而 CSP 將作為大模型重要提供方,將全面賦能 AIPC、AI 手機、AI 眼鏡、機器人等,CSP+電子品牌(蘋果、華為、聯想等)的商業模式將更為清晰。從公開數據到私域數據,從訓練到推理,從云到端,三大利器全部掌握在 CSP手中,形成訓練-推理-商業化落地的完美閉環,我們認為未來 CSP 的話語權將進一步加重,AI 發展的話語權將由以英偉達為代表的算力公司,以及以 Open AI 為代表的大模型公司,交棒至各大 CSP 巨頭。行業深度研究/電子 本公司具備證券投資咨詢業
23、務資格,請務必閱讀最后一頁免責聲明 證券研究報告 9 2 CSP 異軍突起,百舸爭流的算力競爭時代開啟 2.1 從外采到自研,CSP 的算力升級之路 2.1.1 資本開支和云收入,相輔相成 云商算力需求仍維持高增,持續增長的資本開支成為北美云商算力的主要支撐。CY3Q24 北美四大云商 CY3Q24 合計資本開支為 598.14 億美元,同比增長61.7%,環比增長 13.2%;Bloomberg 一致預期 CY2024 北美四大云商資本開支合計為 2226 億美元,同比增長 51.0%。其中:1)微軟:CY3Q24 資本開支 149.23 億美元,qoq+7.6%,yoy+50.5%,此前公
24、司指引 Q3 資本開支環比增加,實際數據基本符合預期,公司指引下一季度資本開支環比增長,但伴隨需求增長,資本開支增速將放緩;2)Meta:CY3Q24 資本開支 92.10 億美元,qoq+12.7%,yoy+40.8%,公司將全年資本開支預期范圍從上一季度的 370-400 億美元上修至 380-400 億美元,符合 391 億美元的 Bloomberg 一致預期,關于 2025 年,公司預計 2025年資本支出將繼續大幅增長;3)谷歌:CY3Q24 資本開支 130.61 億美元,qoq-0.9%,yoy+62.10%,此前公司指引 Q3 資本開支保持或高于 120 億美元,實際數據略超預
25、期,據公司指引我們測算公司 2024 年資本開支預計 500 億美元以上,2025 年保持適度增長,與此前指引一致;4)亞馬遜:CY3Q24 資本開支 226.20 億美元,qoq+28.4%,yoy+81.3%,顯著超 Bloomberg 一致預期,公司對 2024 年資本開支計劃為 750 億美元,預計2025 年將進一步提升。我們認為,當前海外算力產業鏈的核心矛盾為云商資本開支和算力需求的增長。從北美四大云廠商對資本開支最新的反饋來看,算力需求依舊旺盛。另一方面,云商正在通過:1)AI 帶來 Opex 方面的降本增效;2)延長云基礎設施的折舊年限等方式提升資本開支潛在空間,算力需求有望持
26、續高增。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 10 圖11:1Q20-4Q24 北美云商資本開支(億美元)圖12:2021-2024E 北美云商資本開支(億美元)資料來源:Bloomberg,民生證券研究院 注:4Q24 數據為 Bloomberg 一致預期 資料來源:Bloomberg,民生證券研究院 云商云業務收入持續高增,為算力基礎設施擴張提供主要動力。北美云商方面,CY1Q23-CY3Q24 亞馬遜、微軟和谷歌三大云商合計云業務收入分別為508.89/541.64/514.83/592.76/613.19/651.43/628.9
27、7 億 美 元,同 比 增 長17.5%/15.4%/7.9%/18.1%/20.5%/20.3%/22.2%,生成式 AI 的發展使得用戶對云的需求持續高漲;國內云商方面,CY1Q23-CY3Q24 阿里和百度兩大云商合計云業務收入分別為 289.42/296.23/319.48/337.66/302.95/316.49/345.10 億元,同比增長 19.4%/4.6%/1.6%/3.7%/4.7%/6.8%/8.0%,增速有所放緩,但國內云行業正向 AI 計算加速轉變,未來上升趨勢依然可觀。圖13:北美云商云業務收入(億美元)及同比增速 圖14:國內云商云業務收入(億美元)及同比增速 資
28、料來源:Bloomberg,民生證券研究院 資料來源:Bloomberg,民生證券研究院 2.1.2 CSP 加速入局,挑戰英偉達壟斷 目前英偉達在 AI 加速卡領域仍然占據主要供應商的低位,但其他商業公司以及云商自研的比例正在逐步提升。AI 加速卡的競爭格局中主要有三類“玩家”:1)全球龍頭英偉達;2)其他商業 AI 加速卡公司,如 AMD、Intel、昇騰等;3)云廠商自研加速卡。據 Trendforce 統計,2022 年全球 AI 芯片市占率來看,英偉-20%0%20%40%60%80%0200400600800微軟Meta谷歌Amazon合計YoY-20%0%20%40%60%01,
29、0002,0003,0002021202220232024E微軟Meta谷歌Amazon合計YoY0%10%20%30%40%0200400600800Amazon微軟谷歌合計YoY0%20%40%60%0100200300400阿里云百度云合計YoY行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 11 達獨占 67.6%,預計到 2024 年英偉達市占率將下降到 63.6%,而 AMD 以及其他云商自研加速卡比例有望提升。我們認為,云廠商自研加速卡將成為未來AI芯片增量最核心的來源。一方面,云商自研加速卡在成本方面顯著優于向英偉達等商業公司外采,
30、3Q24 英偉達毛利率已達到 74.4%,采用自研加速卡的方式,將幫助云商在有限的資本開支下獲得更多的 AI 算力。另一方面,云商自研 ASIC 更加靈活,云廠商可以根據自身的模型訓練和推理需求,進行 AI 芯片和服務器架構的設計,從而實現更好的訓練和推理效果。伴隨著云廠商自研 ASIC 產品的逐步成熟,未來云商在 AI 算力的布局中自研的比例有望逐步提升。圖15:2022-2024 年全球 AI 芯片競爭格局 資料來源:Trendforce,民生證券研究院 谷歌采取自研加速卡為主,同時采購部分英偉達加速卡的策略。谷歌研發 TPU的時間始于 2013 年,相較于其他云廠商有近 10 年的時間優
31、勢。由于谷歌在加速卡領域布局早,產品完善度高,谷歌或為 2024 年北美四大云廠商中采購英偉達加速卡最少的廠商。2023 年 12 月,谷歌推出面向云端的 AI 加速卡 TPU v5p,相較于 TPU V4,TPU v5p 提供了二倍的浮點運算能力和三倍內存帶寬提升;集群方面,TPU v5p pod 由 8960 顆芯片組成,使用最高帶寬的芯片間連接(每芯片 4,800 Gbps)進行互連;從訓練效果來看,相較于上一代產品,TPU v5p 訓練大型 LLM 的速度提升了 2.8 倍。Meta 自 2021 年以來便將企業發展的重點放在元宇宙和 AI 領域,并且修改了公司名稱。2023 年,Me
32、ta 宣布自研 MTIA v1 芯片。2024 年 4 月,Meta 發布最新版本 MTIA v2 加速卡,新一代 MTIA 加速卡在算力、內存容量、內存帶寬等方面更加平衡,采用臺積電 5nm 工藝制造,Int 8 稀疏算力可以達到 708TOPS,HBM 內存容量達到 128GB。目前 Meta 仍主要采購英偉達等廠商的加速卡用于Llama 等模型的訓練,后續 Meta 有望采用自研加速卡對大語言模型進行訓練。微軟 Azure 的企業數量已經達到 25 萬家,是目前采購英偉達加速卡最為激進的云廠商,但考慮到采購英偉達加速卡的高昂成本,微軟也宣布了自研加速卡的計劃。微軟的 Maia 100 在
33、 2023 年推出,專為 Azure 云服務設計。Maia 100 采67.6%65.5%63.6%5.7%7.3%8.1%3.1%3.0%2.9%23.6%24.1%25.3%0.0%20.0%40.0%60.0%80.0%100.0%202220232024FNVDIAAMDIntelOthers行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 12 用臺積電 5nm 工藝,單芯片擁有 1050 億個晶體管,FP 8 算力可以達到1600TFLOPS,同時支持 FP 4 運算,算力達到 3200TFLOPS,是目前廠商自研加速卡中算力最強大的產品
34、。除了微軟自身以外,OpenAI 也在嘗試采用微軟的加速卡,強大的下游客戶支持有望為微軟自研加速卡的進步帶來重要動力。亞馬遜同樣在自研加速卡方面加大投入,并且已經完善了訓練和推理的兩方面布局。2023 年,亞馬遜推出了用于訓練的 Trainium2 加速卡,以及用于推理的Graviton4 加速卡,補全了亞馬遜在訓練和推理領域加速卡的布局。亞馬遜的Trainium2 加速卡 Int 8 算力達到 861TOPS,相較上一代產品性能提升 4 倍,在云廠商自研加速卡中表現優秀。同時公司的產品可以在新一代 EC2 UltraClusters中擴展多達 10 萬顆 Trainium2 加速卡,與 Am
35、azon EFA PB 級網絡互聯,提供高達 65 EFlops 算力,為云端大模型的訓練和推理提供強大的算力保障。表1:英偉達客戶在加速卡領域的布局情況 廠商 大類 型號 發布時間 制程nm 峰值算力 TOPS/TFLOPS 內存信息 互聯帶寬GB/s INT8/FP8 Dense/Sparse BF16/FP16 Dense/Sparse TF32/FP32 Dense/Sparse 類型 容量GB 谷歌 訓練 TPUv5E 2023-394 197-HBM2 16 400 TPUv5P 2023-918 459-HBM2 95 800 Meta 推理 MTIA v2 2024 5 354
36、/708 177/354 2.76-128-微軟 訓練 Maia 100 2023 5 1600 800-HBM3 64 1200 亞馬遜 訓練 Trainium2 2023 4 861 431 215-96-推理 Graviton4 2023-GDDR5-TESLA 訓練 D1 2021 7 362 362 22.6-32-資料來源:各公司官網,Semianalysis 等,民生證券研究院 注:未標注的數據為沒有在公開渠道披露的信息 2.1.3 AWS Trainum 芯片詳解 Trainium2 芯片由少量大型 NeuronCore 組成,與 GPU 大量小張量核心不同,該設計更適合生成式
37、 AI 任務。以 NeuronCore 為基礎計算單元,在每個NeuronCore 內配備張量、矢量、標量及 GPSIMD 引擎,分別承擔矩陣乘法運算、向量操作、元素級操作及自定義操作,各引擎協同工作提升計算效率。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 13 圖16:Trainium2 芯片 圖17:Trainium2 內部組件 資料來源:AWS,民生證券研究院 資料來源:SemiAnalysis,民生證券研究院 Trainium2 由兩個計算芯片組和四個 HBM3e 內存堆棧封裝而成,每個計算芯片經由 CoWoS-S/R 封裝與其兩個相鄰
38、的 HBM3e 進行通信,芯片的兩個部分通過 ABF 基板互連。單芯片具備650TFLOP/s的密集 BF16 性能,1300TFLOPS/s的密集 FP8 性能,搭載 96GByte 的 HBM3e 內存容量,單芯片功耗約 500W。表2:Trainum2 芯片參數 Trainum2 參數參數 Trn2 Theoretical BF16 Dense TFLOP/s/chip 650 Theoretical FP8 Dense TFLOP/s/chip 1300 HBM Capacity(GByte/chip)96 HBM Bandwidth(GByte/s/chip)3200 Arithme
39、tic Intensity(BF16 FLOP per Byte)203.125 FLOP per HBM Capacity(BF16 FLOP per Byte)6770.83 Structured Sparsity Support 2:4,4:8,4:16 Chip Power(Watts)500 Cooling Technology Air Cooled 資料來源:SemiAnalysis,民生證券研究院 亞馬遜的下一代 Trainum3 產品有望實現性能翻倍,預計將在 25 年底問世。亞馬遜于 12 月 3 日的 re:Invent 2024 大會透露,首批基于 Trainium3 的
40、實例預計將于 2025 年底上市,將助力 AWS 及其合作伙伴在 AI 前沿領域取得突破,滿足各行業對 AI 計算力增長需求,推動自然語言處理、圖像識別、藥物研發等領域創新發展。Trainium3 將成為首款采用 3nm 工藝節點制造的 AWS 芯片,在性能、能效和密度上樹立了新標桿。更小制程工藝使晶體管尺寸縮小、集成度提高,降低功耗同時提升運行頻率與處理能力,減少芯片發熱,提升穩定性與可靠性,為大規模 AI行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 14 計算集群節能增效。Trainium3 芯片能效有望提高 40%、性能有望翻倍提升。更高能
41、效比讓單位功耗下計算性能大幅提升,翻倍性能增長使芯片處理能力更強,加速模型訓練與推理,支持更大規模復雜模型訓練,縮短研發周期、提升迭代效率,增強 AWS 在 AI芯片領域競爭力。搭載 Trainium3 的 UltraServer 性能預計將比 Trn2 UltraServer 高出 4 倍。這一性能提升將使得設備在處理復雜 AI 任務時更加高效。對于需要實時處理大量數據的應用場景,如實時語音識別、圖像生成等,性能的提升也將帶來更流暢的用戶體驗。2.1.4 Design Service 成為 CSP 最重要的合作伙伴 相比英偉達的 GPGPU,ASIC 在特定任務場景下,具有高性能、低功耗、成
42、本效益、高保密性和安全性的優勢,成為了云廠商提高計算效率,節省算力成本的重要手段。隨著 CSP 的話語權不斷加強,諸如 AWS、谷歌等對算力的需求不斷增長,催生了定制 AI 芯片的需求;博通、Marvell、AIchip 等可提供先進的 AI 芯片定制化設計服務,成為 CSP 最重要的合作伙伴。據 Marvell 預測,2023 年 ASIC 占數據中心加速計算芯片的 16%,規模約為66 億美元;隨著 AI 計算需求的增長,ASIC 占比有望提升至 25%,預計 2028 年數據中心 ASIC 市場規模將提升至 429 億美元,CAGR 為 45.4%;博通占據 55%以上的市場份額,Mar
43、vell 市場份額亦接近 15%,成為兩個最重要的“玩家“。博通:谷歌自研 AI 芯片 TPU 的主要供應商,與谷歌 TPU 項目合作約 10 年,客戶關系及設計能力積累深厚。公司已與谷歌合作完成其第六代 TPU(Trillium)設計,目前正在推進第七代設計,預計將于 26/27 年推出。受益于 AI 的高速發展,23 年谷歌向博通支付的 TPU 費用達 20 億美金,24 年有望增長至 70 億美金。除谷歌外,博通亦為 Meta 的 AI 芯片 MTIA 提供設計服務,亦與蘋果、字節跳動、OpenAI 等巨頭合作開發芯片。博通 CEO Hock Tan 指出,到 2027 年,博通的客戶將
44、在 AI 芯片的集群中部署多達 100 萬個芯片,博通的 AI 芯片可能會為公司帶來數百億美元的年收入增長。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 15 圖18:博通兩大核心客戶 AI 芯片戰略規劃 資料來源:IT 之家,民生證券研究院 Marvell:亞馬遜自研 AI 芯片 Trainium 的主要供應商,公司與 AWS 簽訂5 年合作協議,幫助亞馬遜設計 AI 芯片;2025 年第三財季 Marvell 面向數據中心的銷售額同比增長了近一倍,達到 11 億美元,公司預計本財年數據中心部門將占總收入的 72%,同比增長 32pts。除 A
45、WS 外,Marvell 亦為微軟提供定制的 AI 芯設計服務。Marvell 估計至 28 年,其計算、高速網絡、以太網和存儲產品組合將帶來 750 億美元的市場機會,核心增長動力來自定制計算(45%年復合增長率)和高速數據中心互連(27%年復合增長率)。圖19:博通兩大核心客戶 AI 芯片戰略規劃 資料來源:650 Group,Marvell Invester AI Day,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 16 2.2 CSP 算力供應鏈新變革 2.2.1 擁抱巨頭,PCB 供應商深度受益 PCB(印刷電路板,P
46、rinted Circuit Board)承擔了各電子元器件之間信號互聯的功能;AI 服務器中,由于 AI 算力芯片計算速度快、數據吞吐量大,對信號傳輸有著更高的要求,PCB 的用量、材質及等級亦有提升,價值量相比普通服務器明顯提升。傳統的 AI 訓練服務器以 8 卡機的形式為主,以英偉達上一代 DGX H100 服務器為例,由于采用了 CPU+GPU 的異架構,除了傳統服務器中的主板、網卡板之外,主要新增兩種類型的高價質量 PCB 板:承載 GPU 的 OAM(OCP Accelerator Module,加速卡模組)及實現 GPU 多卡互聯的 UBB(Universal Baseboard
47、,通用基板)。每顆 H100 芯片需要配備一張 OAM,共計 8 張 OAM搭載至 1 張 UBB 之上,形成 8 卡互聯。圖20:傳統服務器 PCB 應用 圖21:DGX H100 AI 服務器中 OAM 和 UBB(綠色)資料來源:廣合科技招股說明書,民生證券研究院 資料來源:英偉達,民生證券研究院 GB200 服務器整體架構與 DGX H100 相比發生顯著變化。DGX H100 中每顆 GPU 芯片需要承載至一張 OAM 加速卡上,而 CPU 單獨搭載至主板。而 GB200中 1 顆 Grace CPU 及 2 顆 Blackwell GPU 直接搭載至 1 張 Superchip 板
48、上,每個Compute tray 中包含兩張Superchip板,即4顆GPU及2顆CPU。Superchip板實現了CPU與GPU間的信號傳輸及芯片供電等功能,實際上替代了DGX H100中 OAM+CPU 主板的功能。因此與 H100 相比,GB200 取消了主板,并且用一張大面積的 Superchip 板取代之前單顆 GPU 的 OAM。與 DGX H100 相比,GB200 由于取消了單臺服務器內 8 顆 GPU 互聯的設計,因此不再需要 UBB 板,一臺 NVL36/72 機柜中,36/72 顆芯片的互聯通過Switch tray+銅纜實現,Switch tray 取代 UBB 承擔
49、了部分互聯的功能。-50%0%50%100%150%200%250%02040608010012018Q118Q218Q318Q419Q119Q219Q319Q420Q120Q220Q320Q422Q122Q222Q322Q422Q1資本支出YoY行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 17 當前谷歌、微軟、亞馬遜、Meta 四大海外云廠商中,谷歌 TPU 及亞馬遜Trainium2 已形成大規模出貨。與英偉達設計方案不同,谷歌及亞馬遜的 AI 服務器既沒有采取類似 H100 的八卡架構,也沒有采取像類似 GB200 將 CPU 與 GPU
50、集成在一張 PCB 板的方案。如谷歌最新一代(第六代)的 TPU 芯片 Trillium,將每四顆 TPU 搭載至一張 PCB 上,組成 Compute Tray;CPU 單獨搭載至另一張PCB 中,放置于另一個 Tray。載有 CPU 及 TPU 的 PCB 分別放置在不同的 Tray中,組合全新機架系統 TPU v6 Pod,每個 TPU v6 Pod 由 512 個 Trillium 芯片組成,提供高達 1.5 ExaFlops 的峰值性能,較上一代提升 83%。亞馬遜同樣采取了將 CPU 及 GPU 分離的設計方案,兩顆 Trainium2 芯片搭圖22:GB200 服務器 PCB 方
51、案發生變化 資料來源:英偉達,太平洋科技,民生證券研究院 圖23:搭載有谷歌第六代 TPU 芯片 Trillium 的 PCB 資料來源:Google,半導體行業觀察,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 18 載至一張 PCB 上,組成 Compute Tray,而兩顆 CPU 單獨搭載至另一張 PCB 上,組成 Head Tray。此外,柜內交換機為支持柜間信號互聯的關鍵,搭載交換機芯片的 PCB 亦具有較高價值量。2.2.2 銅纜配套,機柜式服務器成為主流路徑 傳統 AI服務器主要是八卡架構,谷歌等廠商的 TPU服務
52、器會采用四卡架構,但是整體單個服務器內的 GPU 數量不會太多。以英偉達的 DGX H100 服務器為例,服務器主要由 GPU Tray、Motherboard、電源等部件組成,其中八張 GPU內置在 GPU Tray 中,通過 UBB 板上的 NV Switch 芯片互聯,GPU 和 Switch 安裝在同一個 Tray 中;Motherboard 上放置 CPU、內存、網卡等;Motherboard和 GPU Tray 通過軟板互聯。GPU Tray 內部的八張 GPU 之間通過 NV Link 通信,服務器和服務器之間通過光模塊進行通信。圖25:英偉達 DGX H100 服務器架構 圖2
53、6:英偉達 DGX H100 GPU Tray 資料來源:HPC Systems,英偉達,民生證券研究院 資料來源:HPC Systems,英偉達,民生證券研究院 圖24:亞馬遜 Trainium2 Compute Tray 資料來源:Semianalysis,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 19 英偉達推出的 GB200 NVL 72 機柜架構全面改變了傳統的 AI 服務器形態。在一臺 NVL 72 中,機架最上層安放交換機,用于 Rack 之間的通信;機架次頂部和底部各安放 3 個(合計 6 個)33KW 的 P
54、ower Shelf,用于交流電到直流電的轉換;機架中間部分是 18 個 Compute Tray 和 9 個 Switch Tray,分別用戶安放GB200 加速卡和 NV Switch 芯片,如果采用 NVL 36 的方案,則 Compute Tray的數量將減少到 9 個。高速銅纜是實現 GB200 機柜式服務器 36 卡或 72 卡之間通信的主要手段。在 GB200 NVL72 的 Rack 內部,GPU Tray 到 Switch Tray 的互聯采用高速銅纜,主要的優勢在于,在傳輸距離較短的情況下,高速銅纜可以用更低的成本獲得更高的互聯帶寬。而其他的優勢還包括:1)功耗低:采用銅互
55、聯方案可以節省光電轉換產生的能量損耗,單只 1.6T 光模塊的功耗在 20W 左右,同時也降低了散熱問題;2)故障率低:光模塊每年有 2%-5%的損壞率,而銅連接更加穩定。圖27:英偉達 GB200 NVL 72 機柜架構 資料來源:華碩官網,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 20 銅纜在 GB200 機柜中的主要使用場景包含 Rack 內部以及 Rack 之間兩個部分。其中 Rack 內部的銅互聯主要負責 36 或 72 張加速卡之間的通信,最長的信號傳輸距離一般在 1 米以內。在 8 臺機架之間的通信,英偉達提供了
56、兩種解決方案:1)傳統的光模塊解決方案,在目前主流的方案下,通信速率一般為 1.8TB/s的 NV Link 帶寬的 1/4.5;2)銅互聯解決方案,可以以 1.8TB/s 的互聯帶寬進行通信,即將 576 張加速卡用銅互聯的方案進行連接。目前機柜間采用銅互聯方案的滲透率仍較低,但考慮到機柜式 AI 服務器在性能和成本端的優勢,預計未來主流的 AI 算力廠商也將推出機柜式服務器,高速銅纜在 AI 服務器內的滲透率有望逐步提升。圖29:Rack 內部銅互聯解決方案 圖30:Rack 之間的銅互聯解決方案 資料來源:英偉達官網,民生證券研究院 資料來源:英偉達官網,民生證券研究院 2.2.3 AE
57、C 解決下一代 AI 互聯瓶頸 高速銅纜方案主要包括 DAC(無源銅纜)、ACC(有緣銅纜)、AEC(有源圖28:GB200 NVL72 架構的通信解決方案 資料來源:Semianalysis,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 21 電纜)。過去機柜中主要采用 DAC 方案進行 AI 芯片間的互聯,但目前 AI 芯片的互聯帶寬升級速度較快(以英偉達為例,公司每兩年推出一代產品,每一代產品的互聯帶寬升級一倍),僅僅依靠 DAC 本身的升級無法滿足 AI 芯片快速提升的互聯帶寬要求,通過 AEC 進行信號的重新定時和補償,
58、可以有效降低干擾,提升傳輸距離,減小線徑。據 Lightcounting,2023 年至 2028 年 DAC 和 AEC 的市場空間 CAGR 增速分別為 25%和 45%,AEC 的市場空間增速顯著更高。1)DAC:其由鍍銀銅導線和泡沫絕源芯片制成的高速電纜組成,因其不包含光電轉化模塊而具有較低的成本;2)ACC:其作為有源銅線,本質上是作為一根有源電纜來放大模擬信號。其利用 Redriver 芯片架構,并采用 CTLE 均衡來調整 Rx 端的增益;3)AEC:其代表了有源銅線電纜的一種更具創新性的方法。它在兩頭引入了具有時鐘數據恢復功能的 retimer 芯片,對電信號重新定時和驅動,補
59、償銅纜的損耗,一般用于 7 米以內的傳輸距離;4)AOC:其由兩端的兩個模塊組成,中間由一段光纖相連。光學模塊和光纜都是集成的,兩端的光學模塊都需要激光組件。具體而言,在短距離(3m)、相對較低速率的傳輸場景下,DAC 的優勢明顯。主要原因是 DAC 兩端無需增加 redriver 和 retimer 芯片,成本優勢明顯。然而隨著速度和帶寬的增加,DAC 的傳輸距離受到了一定的限制,有源電纜 AEC在性能上的優勢逐漸顯現出來。在從 400G 到 800G 的過渡過程中,銅纜的損耗增大且互連長度無法滿足需求,DAC 傳輸距離從 3 米縮短到 2 米。而 AEC 在保持低功耗和可負擔性的同時得以滿
60、足中短距離傳輸需求,為短鏈路提供了一種經濟高效的方式。圖31:全球 DAC、AEC、AOC 市場規模(十億美元)資料來源:Lightcounting,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 22 表3:DAC、AEC、AOC 性能對比 DAC AEC AOC 400G 傳輸距離 3m 7m 300m 800G 傳輸距離 2m 2.5m 300m 功耗 低 低 高 費用 低 中等 高 傳輸速度 快 快 慢 資料來源:Asterfuison,民生證券研究院 DAC、ACC、AEC 和 AOC 在 AI 服務器中均有采用,而 AE
61、C 有望伴隨云廠商自研 AI 芯片的市占率提升加速滲透。目前市場主流的機柜式 AI 服務器中,英偉達的 GB200 根據不同的距離和帶寬需求,在機柜內部和機柜間采用 DAC 和ACC 進行互聯,服務器和交換機之間則主要采用 AOC 進行互聯。而在微軟和亞馬遜的自研 AI 服務器中,AEC 則替代了 DAC,成為機柜內互聯 AI 芯片的主要產品。不同廠商采用不同解決方案的主要衡量因素是性能、成本、互聯帶寬等。圖32:DAC、AEC、AOC 功耗對比 圖33:DAC、AEC、AOC 成本對比 資料來源:Precision OT,民生證券研究院 資料來源:Precision OT,民生證券研究院 2
62、.2.4 AEC 滲透率有望提升,以 AWS 服務器為例 類似英偉達使用 NVLink 擴展網絡實現芯片互聯,Trainium2 采用NeuronLink 超速高帶寬、低延遲的芯片間互聯技術實現芯片與芯片之間的高速互連,支持更多的芯片連接和更高的數據傳輸速率,為大規模集群訓練和推理提供了強大的擴展性。Trainium2 提供兩種產品規格,分別采用了 2D Torus 和 3D Torus的網絡拓撲結構,可將 16 個(44)或 64 個(444)Trainium2 芯片連接在一起,形成不同規模的計算集群,以適應不同的計算需求。在兩種服務器架構中,PCB 連接同一個 Compute Tray 內
63、部的 2 顆加速卡,其他加速卡之間的互聯,以及機柜和機柜間的互聯則采用 AEC。1)16 卡服務器:AWS 基于 Trainium2 打造了 AI 服務器,每個 Trainium2服務器占用 18 個機架單元(18U),由 1 個 2U 的 CPU Head Tray 和 8 個與之相連的 2U Trainum2 Compute Tray 組成。每個 Compute Tray 搭載兩個Trainium2 芯片,與英偉達 GB200 的架構不同,其 Compute Tray 中未搭載 CPU,行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 23 需要
64、依托 Head Tray 運行;兩個 CPU 單獨搭載至一個 Head Tray 中,通過外部PCIe 5.0 x16 DAC 無源銅纜與 8 個 Compute Tray 相連。每臺 Trainium2 服務器整合了 16 顆 Trainium2 芯片,具備 20.8 PFLOPS 的算力,適合數十億參數大語言模型的訓練與部署;2)64 卡服務器:AWS 還基于 Trainium2 進一步打造了 Trainium2 Ultra 機架方案,其集成 64 顆 Trainium2 芯片,將 4 臺 Trn2 服務器連接成 1 臺巨型服務器,可提供相比當前 EC2 AI 服務器多達 5 倍的算力和
65、10 倍的內存,FP8 峰值算力可達 83.2PFLOPS,能夠支撐萬億參數 AI 模型的實時推理性能。圖34:Trainium2 Rack 圖35:Trainium2-Ultra Rack 資料來源:SemiAnalysis,民生證券研究院 資料來源:SemiAnalysis,民生證券研究院 2.2.5 散熱:芯片功率提高,液冷時代已至 傳統風冷是以空氣為熱量傳輸媒介,液冷技術是將高比熱容的液體作為熱量傳輸媒介,直接或間接接觸發熱器件,縮短送風距離,傳熱路徑短,換熱效率高。AI 算力芯片計算力能強、功耗大,產生熱量較多,若不能及時進行散熱以實現芯片的降溫,輕則影響芯片性能,重則將使芯片使用壽
66、命減少乃至損傷、報廢。傳統數據中心中,由于以 CPU 云計算為主,芯片功耗較低,因此一般采取風冷散熱。然而隨著 AI 算力芯片功耗密度大幅提高,傳統風冷散熱技術已難以滿足當前的高密度計算散熱需求,諸如英偉達 GB200 NVL72、谷歌 TPU 等需要采取散熱效果更好的液冷輔助散熱,數據中心液冷時代已至。根據 IDC 數據,中國液冷服務器市場 2024 上半年同比大幅增長 98.3%,市場規模達到 12.6 億美元,出貨量同比增長 81.8%,預計 2023-2028 年,中國液冷服務器年復合增長率將達 47.6%,市場規模有望在 2028 年達到 102 億美元。行業深度研究/電子 本公司具
67、備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 24 液冷技術主要可分為非接觸式液冷及接觸式液冷兩類。其中非接觸式液冷主要指冷板式液冷,將服務器發熱元件(CPU/GPU/DIMM 等)貼近冷板,通過液冷板將發熱器件的熱量傳遞給封閉在循環管路中的冷卻液體,以帶走熱量。冷板式液對于服務器整體改動較小,主要可通過加裝液冷模塊、采用集中式或分布式 CDU 供液、Manifold 分液,對芯片、內存等部件進行精準制冷;相較其他液冷方案,冷板式液冷在可靠性、可維護性、技術成熟度、適用性等方面具有優勢,利于算力中心機房改造,根據 IDC,冷板式液冷成為當前絕對主導的液冷解決方案,占據國內市
68、場 95%以上份額。冷板式液冷系統可分為一次側(室外)循環和二次側循環(室內)兩部分。一次側系統主要由室外散熱單元、一次側水泵、定壓補水裝置和管路等部件構成。二次側系統主要由換熱冷板、熱交換單元和循環管路、冷源等部件構成。一次側的熱量轉移主要是通過水溫的升降實現,二次側循環主要通過冷卻液溫度的升降實現熱量轉移。換熱冷板及 CDU 亦為液冷散熱系統的重要組成。換熱冷板常作為電子設備的底座或頂板,通過空氣、水或其他冷卻介質在通道中的強迫對流,帶走服務器中的耗散熱。冷量分配單元(Coolant Distribution Unit,CDU)可以看作室內機與室外機的連接點,由板式換熱器、電動比例閥、二次
69、側循環泵膨脹罐、安全閥、進出水管專用接頭、控制器及其面板等部件組成 圖36:風冷及液冷對比 資料來源:賽迪顧問中國液冷數據中心發展白皮書,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 25 接觸式液冷的液體與發熱源直接接觸,包括浸沒式液冷和噴淋式液冷兩種。浸沒式液冷是將服務器浸沒在冷卻液中,通過液體溫升或相變帶走服務器中所有發熱元件的熱量。噴淋式液冷的冷卻液從服務器機箱頂部的噴淋模塊滴下來,通過冷卻液與發熱元件之間的接觸進行對流換熱,從而為發熱元件降溫,再通過服務器內的流道匯集至換熱器將熱量散發。相比非接觸式液冷,接觸式液冷可完全
70、去除散熱風扇,散熱及節能效果更好,數據中心 PUE 值可降至 1.1 及以下,但相應對服務器機柜及機房配套設施的投入及改造成本更高,運維難度更大。未來隨著浸沒式液冷技術標準化推進、應用部署成本降低,有望加速大規模商用進展。圖37:冷板式液冷系統示意圖 資料來源:中國信通院,民生證券研究院 圖38:浸沒式液冷原理示意圖 資料來源:賽迪顧問中國液冷數據中心發展白皮書,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 26 2.2.6 電源:功率密度不斷提升,電源要求持續升級 英偉達率先推出機柜式服務器,其他 CSP 廠商紛紛跟進,AI 服
71、務器功率密度快速提升。AI 服務器的功率密度提升來自兩個方面:1)更高算力的加速卡需要更高的功耗:以英偉達的產品為例,2020 年推出的 A100 加速卡單卡功耗為 300W,而 2024 年推出的 GB200 加速卡單卡功耗則達到了 1000W;2)機柜內集成的加速卡數量不斷提升:傳統 AI 服務器以 8 卡形式為主,而進入 2024 年,英偉達推出了機柜架構的 AI 服務器,大大提升了單臺服務器在算力、通信等方面的性能,其他廠商也紛紛開始擁抱機柜式 AI 服務器的浪潮,目前主流 CSP 廠商均已推出或在研機柜式 AI 服務器。展望未來,伴隨算力供應商產品的不斷迭代,單臺 AI 服務器內集成
72、的加速卡數量有望持續提升。服務器系統的可靠性要求較高,因此電源設計時需要考慮冗余。在 AI 服務器工作過程中,如果電源出現故障,則可能造成系統宕機,數據丟失等問題,為了避免損失,AI 服務器設計中需要考慮冗余。AI 服務器系統通常采用 N+1 或 N+N 冗余設計,意味著服務器電源功率要大于系統中所有耗電元器件,如 GPU 和 CPU的功率總和,對電源提出更多要求。在選擇 AI 服務器電源冗余時,通??紤]系統成本以及可靠性要求進行選擇。圖39:AI 帶動服務器機柜功率及功率密度持續提升 資料來源:Electronic Design,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務
73、資格,請務必閱讀最后一頁免責聲明 證券研究報告 27 AI 服務器的升級對電源供電要求提出了更多挑戰,目前機柜式服務器主流采用三級電源供電。例如英偉達的 GB200 機柜式 AI 服務器,其中一級電源為 AC-DC(交流轉直流),使用 power shelf 將電網中的交流電轉換為機柜運行所使用的直流電;二級電源為 DC-DC(高壓直流轉低壓直流),以 PDB(Power Distribution Board)的形式內置于 compute tray,將 48V 直流電降壓為 12V 直流電;三級電源也是 DC-DC(將低壓直流進一步降壓),體積較小,位于 Superchip內部(芯片周圍),將
74、二次電源轉化后的 12V 直流電進一步降壓為 0.8V 左右直流電,用于 GPU 和 CPU 芯片供電。圖40:機架式服務器系統及電源框圖 資料來源:德州儀器(TI),民生證券研究院 圖41:AI 服務器采用三級電源解決方案 資料來源:臺達,雅虎,民生證券研究院 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 28 3 端側:豆包出圈,互聯網巨頭入局 AI 終端 3.1 字節豆包先行,加速端側落地 3.1.1 云廠商合作伙伴+終端落地將是 25 年的主要趨勢 當前大模型廠商主要分為互聯網巨頭和第三方科技公司兩大陣營:(1)互聯網巨頭:代表如字節、阿
75、里、百度、騰訊等,其優勢在于廣大的用戶群體和流量變現能力。這些互聯網巨頭旗下均有高活躍度應用可以幫助引流,如字節的抖音、阿里的淘寶、百度的搜索引擎、騰訊的微信等,同時,這些應用還積累了大量可用于模型訓練的私域數據。(2)第三方科技公司:代表如智譜、Kimi、階躍星辰,主要依托模型的特色功能出圈,如 Kimi 在長上下文窗口技術上取得突破,率先支持 200 萬字上下文長度。盡管這些獨角獸具有較強的技術實力,但由于缺少可以承載模型能力的下游應用場景,因此只能尋求和第三方軟硬件公司的合作。我們認為 25 年有望迎來云端和終端的共振,而二者的交集正是字節產業鏈,建議關注字節火山引擎合作伙伴以及 AI
76、終端落地節奏及有望受益于此的供應鏈合作伙伴。3.1.2 大模型千帆競渡,字節豆包為何脫穎而出 在互聯網巨頭陣營中,字節目前遙遙領先于同業。相較于競爭對手而言,字節的 AI 起步相對較晚,但后來居上,國內百度、阿里、商湯、科大訊飛在去年 3 月開始都陸續推出了大模型新品和 AI 應用,而字節的豆包則是在同年 8 月才發布。盡管如此,今年 5-7 月,豆包 App 日新增用戶從 20 萬迅速飆升至 90 萬,并在 9月率先成為國內用戶規模破億的首個 AI 應用。據量子位智庫數據,截至 11 月底,豆包 2024 年的累計用戶規模已超過 1.6 億;11 月平均每天有 80 萬新用戶下載豆包,單日活
77、躍用戶近 900 萬,位居 AI 應用全球第二、國內第一。我們認為算力資源充足和愿意大力投入是字節豆包迅速起量的主要原因。算力資源方面,字節旗下火山引擎支持多芯、多云架構,擁有超大規模算力,支持萬卡集群組網、萬億參數 MoE 大模型;提供超高性能網絡,支持 3.2Tbps RDMA網絡,全球網絡 POP 覆蓋廣,時延優化最高達 75%;目前花錢投流買量已成為 AI產品啟動的最快捷的方式之一,據 AppGrowing,截至 11 月 15 日,Kimi、豆包、星野等國內十款大模型產品,今年合計已投放超 625 萬條廣告,投放金額達 15 億元,其中,豆包以 4 億+元位列第二。在各家的投放渠道中
78、,基本都離不開字節的巨量引擎(字節旗下廣告投放平臺,涵蓋今日頭條、抖音、西瓜視頻等營銷資源),而背靠字節的豆包,更是將流量池的優勢發揮到了極致。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 29 圖42:國內各大模型 2024 年(截至 11 月 15 日)廣告投放投入 資料來源:AppGrowing,民生證券研究院 除廣告投入外,字節還積極布局 AI 硬件,為豆包尋找 C 端應用場景,打開市場空間。2024 年 9 月,字節完成了對 OWS 開放式耳機品牌 Oladance 的全資收購,進一步拓展其硬件產品,以完善 AI 服務生態。10 月,其
79、收購后的首款產品Ola Friend 智能體耳機正式發布,該產品功能上主要特征是接入了豆包 AI 大模型,為用戶提供陪伴式體驗。此外,多款第三方硬件產品也接入豆包大模型,目前OPPO、vivo、榮耀、小米、三星、華碩已聯合火山引擎發起智能終端大模型聯盟,OPPO 小布助手、榮耀 MagicBook 的 YOYO 助理、小米的小愛同學,以及華碩筆記本電腦的豆叮 AI 助手等應用,均已接入豆包大模型服務。圖43:字節跳動 2024 年硬件布局 資料來源:Tech 星球公眾號,騰訊新聞等,民生證券研究院整理 3.1.3 字節豆包算力需求測算 據 AI 產品榜,字節豆包目前已經成為除了 OpenAI
80、ChatGPT 外月活數量最高的 AI 大模型。截止 2024 年末,豆包大模型 MAU 達到 5998 萬人,后續有望持續提升,我們假設在保守、中性、樂觀三種情況下,2025-2026 年豆包大模型010,00020,00030,00040,00050,00060,000Kimi豆包星野元寶躍問清言星火秘塔通義 文小言投放金額(萬元)行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 30 MAU 分別達到 1 億、1.5 億、2 億人次,云雀大模型參數量仍為 1300 億,則豆包大模型等效 H20 算力需求將分別達到 72、108、181 萬張,對
81、應 AI 服務器需求分別達到 759、1139、1898 億元。表4:豆包大模型推理需求測算 豆包大模型推理算力需求測算 2024 年末 2025-2026E 保守 中性 樂觀 MAU(萬人)6000 10000 15000 20000 DAU(萬人)900 1500 2250 3000 豆包(云雀)大模型參數量 1300 1300 1300 1300 日均 token 調用量(億)40000 66667 100000 133333 推理計算時間(s)2 2 2 2 日均每秒 token 計算數量(億)0.31 0.51 0.77 1.03 峰值倍數 4 4 4 5 算力需求公式 云端 AI
82、推理算力需求2 模型參數量 數據規模 峰值倍數 算力需求結果(FLOPS)3.20988E+19 5.34979E+19 8.02469E+19 1.33745E+20 H20 單卡算力(TFLOPS)148 148 148 148 MFU 50%50%50%50%需要 H20 卡數量(萬張)43 72 108 181 H20 單價(萬元)8.4 8.4 8.4 8.4 H20 服務器均價(萬元)84 84 84 84 豆包大模型創造 AI 服務器需求(億元)455.46 759.09 1138.64 1897.73 資料來源:豆包官網,OpenAI 官網,英偉達官網,36 氪,民生證券研究院
83、整理 3.1.4 火山引擎大會來襲,有望成為字節硬件布局宣傳窗口 字節目前積極合作供應鏈企業,領導行業探索未來 AI 落地新方向,火山引擎大會有望成為硬件布局的宣傳窗口。此前,在 5 月的火山引擎春季大會上,字節對外展示 3 款 AI 硬件的合作產品,包括蔚藍機器狗、聽力熊學習機和一款學習機器人?,F在,火山引擎將于 12 月 18-19 日舉辦冬季FORCE 原動力大會。大會將展示豆包大模型家族的全新升級,拓展 AI 應用場景邊界,并打造 2000 平方米 AI 展區,互動演繹 AI 未來:12 月 18 日,字節跳動正式發布了豆包視覺理解模型,該模型具備更強的內容識別能力、理解和推理、視覺描
84、述等能力。該模型輸入價格為0.003元/千 tokens,比行業價格低 85%,視覺理解模型進入“厘時代”。此外,大會將展現火山引擎的全棧 AI 能力,還將進一步結合邊緣域、汽車、消費等領域實體產業,詮釋如何實現 AI+。樂鑫科技也將參與此次大會,并發表主題演講。此外,豆包通用模型 pro 完成新版本迭代,綜合任務處理能力較 5 月提升 32%,在推理上提升 13%,在指令遵循上提升 9%,在代碼上提升 58%,在數學上提升 43%等。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 31 圖44:豆包通用模型 pro 能力全面提升 圖45:Trai
85、nium2-Ultra Rack 資料來源:火山引擎公眾號,民生證券研究院 資料來源:火山引擎公眾號,民生證券研究院 12 月 19 日,大會的開發者論壇亮相了火山方舟、扣子、豆包MarsCode 等產品。其中,火山方舟發布了高代碼智能體和 API 接口,助力開發者高效調用大模型;扣子發布 1.5 版本,提供了全新的應用開發環境,全面升級多模態能力,為開發者提供專業模板,目前已擁有超過 100 萬的活躍開發者,成為新一代精品應用開發平臺。圖46:火山引擎時間安排表 資料來源:火山引擎,民生證券研究院 豆包引發市場關注熱潮,與其相關的產業鏈上下游企業同樣受到高度關注,國產算力+端側產業鏈全面崛起
86、,為字節等廠商提供更有力的供應鏈支撐,保駕護航。表5:國產算力+端側產業鏈公司 領域 公司 業務 AI算力 潤澤科技 字節數據中心供應商。AI端側 恒玄科技 提供SoC芯片,BES2700芯片芯片進入字節ola耳機。樂鑫科技 提供SoC芯片,esp32芯片被用于AI玩具“顯眼包”。中科藍訊 提供SoC芯片,公司BT895x芯片目前已經和火山方舟MaaS平臺對接。歌爾股份 提供代工服務,字節跳動子公司PICO與歌爾股份簽署長期合作協議。炬芯科技 提供SoC芯片,ATS3085L芯片已用于榮耀手環9。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 32
87、 全志科技 提供SoC芯片,MR527芯片用于石頭V20掃地機器人。星宸科技 提供SoC芯片,計劃2025年推出AI眼鏡芯片。瑞芯微 提供SoC芯片,公司邊緣AI芯片廣泛應用于智能手機、智能家居、汽車智能座艙等多個領域。國光電器 提供一站式電聲解決方案,將VR/AR作為業務發展重點,已布局AR眼鏡等領域。中科創達 智能操作系統及端側智能技術和產品提供商,與火山引擎共建人工智能大模型聯合實驗室。云天勵飛 具備端到端整體解決方案的AI公司,自研了DeepEdge系列邊緣人工智能芯片滿足部署的需求。資料來源:樂鑫董辦公眾號,每日經濟新聞等,民生證券研究院整理 以豆包為代表的 AI 產品,正以前所未有
88、的速度在教育、醫療、文娛等領域廣泛應用,不僅深刻改變著行業的傳統格局,更成為推動包括 AI 終端在內的各領域實現變革與進步的強大引擎。3.2 AI 終端空間廣闊,SoC 是影響體驗的核心硬件 3.2.1 AI 終端不斷擴容,市場空間廣闊 AI 賦能有望改變電子產業的增長曲線,未來廣闊的終端硬件都有重估潛力。22 年全球智能音箱市場出貨量為 1.2 億臺;23 年全球品牌 TWS 耳機年銷量約 3億對;2023 年手表/手環年銷量預計達 1.61 億只;23 年中國戴眼鏡人群接近 7億,在引入 AI 功能后,有望帶動傳統產品升級,刺激換機需求。此外,據 Contrive Datum Insigh
89、ts 數據,2030 年全球 AI 玩具市場規模有望達 351.1 億美元。圖47:AI 終端廣闊空間 資料來源:Canalys,IDC,AVC Revo,Counterpoint Research 等,民生證券研究院整理 我們看好 AI+智能終端的趨勢,AI 將重構電子產業的成長,為智能硬件注入全新的活力,帶來產品邏輯的深度變革,加速硬件的智能化、伴侶化趨勢。無論是手機、PC、AIOT、可穿戴設備、汽車電子,都有重估的潛力。當下,各大廠商紛紛布局,應用端革新漸漸開:1)手機端:當前系統級 AI+打通第三方 App 確立為端側 AI 的發展方向,AI行業深度研究/電子 本公司具備證券投資咨詢業
90、務資格,請務必閱讀最后一頁免責聲明 證券研究報告 33 終端成為長期產業趨勢。蘋果方面,公司于 10 月 29 日正式推出 iOS 18.1 并面向北美用戶推出 Apple Intelligence;安卓方面,智譜于 10 月 25 日發布的 AI 智能體 AutoGLM 也開啟內測;2)PC 端:聯想發布 AI PC 產品,搭載端側大模型可實現文件本地處理,宏碁、華碩、Dell 等均推出 AI PC 新品;3)AIOT:智能音箱方面,阿里巴巴天貓精靈,接入“通義千問”大模型,提升智能交互體驗;AI 玩具方面,字節基于大模型開發情感陪伴玩偶“顯眼包”,具備語音交互、語音識別等功能,滿足用戶情感
91、陪伴。4)可穿戴設備:AI 眼鏡方面,雷朋聯合 Meta 推出 Ray-Ban 智能眼鏡,搭載 Llama 模型,實現拍攝、識別及翻譯外部物體、并可與用戶進行語音交互;AI耳機方面,字節推出 Ola Friend 智能體耳機,產品接入豆包 AI 大模型,為用戶提供陪伴式體驗;5)智能汽車:小米汽車的端到端大模型全場景智能駕駛,預計將于 24 年 12月底正式發布;特斯拉的 FSD 計劃 25 年 Q1 在中國和歐洲推出。圖48:AI+硬件持續落地 資料來源:科創板日報,京報網等,民生證券研究院整理 在廣闊的潛在市場需求下,我們看好字節等頭部大模型公司與各領域硬件廠商持續加深合作,持續推出智能對
92、話、兒童早教等多樣化創新應用,新型智能終端即將迎來規模落地。3.2.2 數字芯片廠商有望高度受益于 AI 終端浪潮 核心云/硬件廠商的重要“合作伙伴”將成為投資主線。隨著 AI 產業開始走向應用層/推理側,AI 產業的話語權或將向云廠商/電子品牌商傾斜,但不論話語權如何交棒,AI 應用的落地都需要硬件的承載,在此過程中成為行業領先者的重要“合作伙伴”至關重要,重要云廠商(谷歌、微軟、Meta、字節、百度)+電子行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 34 品牌廠商(蘋果、華為、小米、特斯拉等)合作伙伴值得關注。表6:數字芯片公司合作伙伴梳理
93、 公司 下游核心客戶 全志科技 天貓精靈、小米、小度等品牌智能音箱;石頭、云鯨、小米、追覓等品牌掃地機;吉利、紅旗、五菱等汽車品牌 晶晨股份 小米、阿里巴巴、Google、Amazon、創維、中興通訊等;SONOS、三星、JBL;寶馬、林肯、Jeep、沃爾沃、極氪等 瑞芯微 阿里、小米、百度、安克創新、騰訊、網易、科沃斯等;比亞迪、廣汽、匯川等 中科藍訊 小米、realme、百度、萬魔、倍思、Anker、漫步者、傳音、boAt、Noise、科大訊飛、TCL等 恒玄科技 三星、OPPO、小米、榮耀、華為、vivo 等;哈曼、安克創新、漫步者、韶音等;阿里、百度、字節跳動、谷歌等 炬芯科技 哈曼、
94、SONY、安克創新、榮耀、小米、羅技、Razer、漫步者等 樂鑫科技 小米、谷歌、字節跳動等 富瀚微 專業安防客戶:???、大華等;AIoT 市場;移動等三大運營商、螢石等 泰凌微 谷歌、亞馬遜、小米、羅技、聯想、JBL、索尼等 資料來源:各公司公告,民生證券研究院整理 在 AI 應用落地成為主敘事方向的情況下,零部件供應鏈企業將受益于終端產品的銷量快速增長,將擁有較大的業績彈性空間。其中,SoC 作為 AI 硬件的核心部分,重要性也愈加凸顯。萬變不離其宗,SOC 能力不斷提升。復盤近兩年 AI 硬件的幾輪投資熱潮,從去年初的智能音箱到年中 AI PC、年末 MR,從今年上半年的 AI Phon
95、e 到下半年的 AI 耳機、AI 眼鏡、AI 玩具,硬件形態快速創新,但其對核心 SOC 的能力要求仍主要圍繞連接+處理兩個方向進化,優秀 SOC 廠商的能力將不斷被證明。依據各個賽道硬件的特點,SoC 將具備不同的需求。1)可穿戴賽道:連接+低功耗是核心痛點,集成 ISP 等多模態處理能力是重點方向;2)AI 潮玩等長尾市場:穩 定 連 接+高 性 價 比 是 核 心 需 求;3)端 側 模 型 部 署:多 核 異 構(CPU+GPU+NPU)或 ASIC 芯片是主流方案。以AI眼鏡為例,我們認為前期雷朋眼鏡的熱銷主要得益于其3A的獨到之處,即自動曝光、自動對焦、自動白平衡,由于 AI 眼鏡
96、無法像手機一樣通過人手實時操控調整對焦,所以對其智能化的物體識別等效果會更為重要,這也是多模態的基礎。在此過程中,ISP 芯片的視覺處理能力發揮了至關重要的作用。在早期耳機時代,連接和音頻處理是重中之重,但伴隨著耳機向眼鏡過渡,視覺處理則更為關鍵。當下,SoC 行業走出底部+下游 AI 智能硬件需求提升,諸多廠商有望在 AI行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 35 浪潮下走出新的成長曲線:恒玄科技:2024H1 公司新一代智能可穿戴芯片 BES2800 實現量產出貨,芯片基于 6nm FinFET 工藝集成了 Wi-Fi6,可實現超低功
97、耗無線連接;樂鑫科技:ESP32-S3 已可對接 OpenAI 的 ChatGPT 或百度“文心一言”等云端 AI 應用,新產品 ESP32-P4 具備邊緣 AI 功能;中科藍訊:公司訊龍三代 BT896X 系列芯片已應用在百度新推出的小度添添 AI 平板機器人的智能音箱中,可實現 AI 語音交互。晶晨股份:2024H1 公司基于新一代 ARM V9 架構和自主研發邊緣 AI能力的 6nm 商用芯片流片成功,并已獲得首批商用訂單;瑞芯微:公司 RK3588、RK3576 采用高性能 CPU 和 GPU 內核并帶有 6T NPU 處理單元,針對端側主流的 2B 參數數量級別的模型運行速度能達到每
98、秒生成 10 token 以上,滿足小模型在邊、端側部署的需求;表7:主要算力芯片參數 公司 主要算力芯片 產品型號 內核 主頻 算力 制程 恒玄科技 BES2800 雙核ARM Cortex-M55 300MHz-6nm 晶晨股份 A311D 4*Cortex-A73+2*Cortex-A53 最高2.2GHz 5 TOPS 12nm(6nm流片成功)瑞芯微 RK3588 4*Cortex-A76+4*Cortex-A55 最高2.4GHz 6 TOPS 8nm 北京君正 T41 雙核XBurst2 1.21.4GHz 1.2 TOPS 12nm 全志科技 V853 雙核Cortex-A7+
99、RISC-V E907 1GHz+600MHz 12 TOPS 22nm 富瀚微 FH8898 4 核RISC 處理器-2 TOPS 22nm 中科藍訊 BT8952F RISC-V+DSP擴展 125MHz+270MHz-22nm 炬芯科技 ATS283XP 32bits RISC+DSP擴展 264MHz-40nm 樂鑫科技 ESP32-S3 Xtensa 32位LX7雙核處理器 240MHz-40nm 資料來源:各公司官網等,民生證券研究院整理 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 36 4 投資建議 4.1 行業投資建議 我們認為
100、,伴隨著公開數據預訓練scaling law的結束,AI產業敘事開始向云廠商合作伙伴轉移。從數據到模型,從訓練到推理,從云到端,CSP廠商全面布局,形成了完美的商業閉環。當下,無論是海外的谷歌、亞馬遜,還是國內的字節、騰訊,云廠商巨頭們開始接力,引領AI產業的下一棒。具體到投資方向,PCB、銅纜、溫控、電源等產業鏈,是國內企業深耕多年,具備優勢的環節。伴隨著本土云廠商的大力擴產,內需為王的時代也將來臨。相比過去,25年的AI產業投資將更重視合作建立、訂單落地以及業績兌現,投資回報也會更為穩健。建議關注:1、云端算力:1)ASIC:寒武紀、海光信息、中興通訊;2)服務器:浪潮信息、工業富聯、華勤
101、技術、聯想集團;3)AEC:新易盛、博創科技、瑞可達、兆龍互聯、立訊精密;4)銅連接:沃爾核材、精達股份;5)PCB:生益電子、廣合科技、深南電路、威爾高;6)散熱:申菱環境、英維克、高瀾股份;7)電源:麥格米特、歐陸通、泰嘉股份。2、端側硬件:1)品牌:小米集團、漫步者、億道信息等;2)代工:國光電器、歌爾股份、天鍵股份、佳禾智能等;3)數字芯片:樂鑫科技、恒玄科技、星宸科技、富瀚微、中科藍訊、炬芯科技、全志科技等;4)存儲芯片:兆易創新、普冉股份;5)渠道配鏡:博士眼鏡、明月鏡片等。4.2 相關公司梳理 4.2.1 ASIC 中興通訊:公司在芯片研發領域深耕近30年,不斷加強在先進工藝設計
102、、架構創新、封裝技術以及核心知識產權等方面的投入,建立了數字化高效開發平臺,形成了行業領先的全流程芯片設計能力,專注于ASIC芯片底層技術的研發,并緊跟算網一體化的趨勢,圍繞“數據、算力、網絡”打造高效、環保、智能的全棧算網基礎。4.2.2 AEC 瑞可達:公司專注于連接系統產品的設計開發和制造,系國內知名連接器生產制造商,具備完整的連接器配套產業鏈。公司正密切關注 AI 與數據中心產業,未來將重點布局和發展 AEC 高速組件產品。兆龍互連:公司是國內領先的數據電纜、專用電纜和連接產品設計與制造的高新技術企業。高速電纜組件是公司未來重點發展方向,公司在服務器內外高速連接行業深度研究/電子 本公
103、司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 37 產品上擁有全套自主設計能力,包括 PCBA、線端連接器等,在信號仿真、結構設計和模具設計等領域擁有較深的技術積累。博創科技:公司產品主要面向電信和數據中心、消費及工業互聯領域,已向多家國內外互聯網客戶批量供貨高速銅纜,旗下高性能 800G AEC 系列產品支持400G/800G 傳輸速率,涵蓋 OSFP/QSFP-DD/QSFP112 封裝,最遠傳輸距離達7 米,較傳統 DAC 極大豐富了應用場景。立訊精密:銅連接是公司業務的核心產品,在數據中心高速互聯領域,公司構建了柜內互聯、柜間互聯、服務器、交換機完整解決方案,并
104、且已協同頭部芯片廠商前瞻性為全球主流數據中心及云服務廠商共同制定 800G、1.6T 等下一代高速連接標準。4.2.3 銅連接 沃爾核材:公司高速銅纜業務由樂庭智聯經營,具有豐富的產品開發經驗和制程控制經驗,通過多年的技術積累,樂庭智聯掌握全部重點產品的核心技術,主要產品為 400G/800G 高速通信線,目前 SFP、QSFP、QSFP-DD、SAS、Mini-SAS等一系列產品取得了眾多知名客戶的認可,224G 高速通信線產品已穩定批量交付給直接客戶。精達股份:公司全球領先的電磁線制造商之一,主導產品包括銅基電磁線。公司控股子公司恒豐特導主要產品為鍍銀線、鍍鎳線、鍍錫線、純銀線、純鎳線等產
105、品,具備高性能銅基絲線材制備加工核心技術,開發出具有自主知識產權的成套制備加工技術并成功應用于銅及貴金屬絲線材等系列產品。4.2.4 PCB 生益電子:公司成功開發包括亞馬遜在內的多家服務器客戶,AI 配套的主板及加速卡項目均已經進入量產階段,未來新一代產品項目在持續合作開發中。生益電子深耕高精度多層 PCB 與高頻高速 PCB 研發,公司多個客戶的 AI 產品項目已經成功實現批量,未來新一代的產品項目在持續合作開發中。2024 年前三季度,公司服務器產品營收規模同比實現較大增長,服務器產品占比 42.45%,同比提升20.87pts。廣合科技:廣合科技深耕于高速 PCB 領域,產品主要定位于
106、中高端應用市場,其中服務器用 PCB 產品的收入占比約七成。廣合科技的 AI 服務器相關產品的出貨占比已超過 25%,且增速顯著高于傳統服務器,其中 UBB、I/O 板等產品顯著起量。公司已通過下游客戶認證的英偉達 Blackwell GB200 芯片相關產品,主要聚焦于服務器 CPU 主板。深南電路:深南電路深耕 PCB 行業 40 年,已成為全球領先的無線基站射頻功放 PCB 供應商、內資最大的封裝基板供應商。公司前三季度數據中心領域訂單同比顯著增長,主要得益于 AI 加速卡、EagleStream 平臺產品持續放量等產品需行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后
107、一頁免責聲明 證券研究報告 38 求提升,400G 及以上的高速交換機、光模塊產品需求在 AI 相關需求的帶動下有所增長,產品結構優化。在新產品預研方面,公司已配合下游客戶開展下一代平臺產品研發。威爾高:公司產品覆蓋厚銅板、Mini LED 光電板、平面變壓器板、光模塊等,產品應用于工業控制、顯示、汽車電子、新能源、通訊設備、AI 服務器等領域。公司工控業務占比約 40%,目前正在從一次電源向二次電源拓展,在 AI 領域公司主要包括 DC-DC 相關電源產品 PCB,相關 PCB 層數已做到 30 層。4.2.5 散熱 申菱環境:公司數據中心液冷產品眾多,包括有端到端的全鏈條解決,核心 CDU
108、 設備,二次側系統,manifold 管路,一次側及外部冷源等。新的數據中心產品基地很快就會投產,未來相關業務特別是液冷產品的質量、技術及交付能力都會大幅提升。公司在液冷產品領域參與較早,項目案例較多,與重要客戶的技術粘性高,未來相關業務增長趨勢較好。英維克:英維克是業內領先的精密溫控節能解決方案和產品提供商,憑借自身掌握的關鍵自主技術,液冷散熱技術已有端到端全鏈條布局,針對算力設備和數據中心推出的 Coolinside 液冷機柜及全鏈條液冷解決方案。作為數據中心液冷項目的領軍企業,截至今年 4 月,已累計交付 900MW 液冷項目,技術實力與市場地位穩固,項目執行經驗豐富。高瀾股份:公司作為
109、國內最早聚焦電力電子熱管理技術創新和產業化應用的企業之一,擁有行業領先的技術,熱管理業務主要產品達到國內領先或國際先進水平,部分產品達到國際領先水平。公司的液冷解決方案以冷板式為主,液冷產品的相關客戶包含字節跳動、阿里巴巴、騰訊、萬國數據、浪潮等企業,公司積極布局海外市場,熱管理產品已在全球多個國家和地區投入使用,應用場景涉及大功率電力電子、數據中心等領域。公司產品已取得 CE、ETL、ASMEU、ROHS 等認證,并已直接或間接應用于歐洲、美國等海外項目。4.2.6 電源 麥格米特:公司是行業領先的電源解決方案提供商,具備業界領先的高功率高效率網絡電源的技術水平及產品研發與供應能力。2024
110、年10月17日,公司宣布與英偉達展開合作,將為NVIDIA MGX平臺和GB200系統提供先進的電源解決方案。歐陸通:公司深耕電源領域多年,配置有全功能、全方位的研發與產品綜合性實驗室,產品技術參數均可實現自主設計、檢測、實驗,保證了研發速度與品質標準,主要產品包括電源適配器、數據中心電源和其他電源等。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 39 表8:重點關注個股 證券代碼 證券簡稱 股價(元)EPS PE 評級 2024E 2025E 2026E 2024E 2025E 2026E 688041.SH 海光信息 155.05 0.84
111、1.12 1.46 185 138 106 推薦 688800.SH 瑞可達 56.19 1.04 1.38 1.84 54 41 31 推薦 002851.SZ 麥格米特 60.72 1.13 1.53 1.95 54 40 31/300870.SZ 歐陸通 111.99 2.11 2.87 3.91 53 39 29/300499.SZ 高瀾股份 22.16 0.10 0.27 0.43 218 83 52/301018.SZ 申菱環境 38.98 0.77 1.02 1.24 51 38 31/002130.SZ 沃爾核材 29.22 0.73 0.95 1.14 40 31 26/60
112、0577.SH 精達股份 8.02 0.26 0.34 0.41 31 23 20/688629.SH 華豐科技 38.89 0.20 0.46 0.63 196 84 62/資料來源:Wind,民生證券研究院預測;(注:股價為 2024 年 12 月 27 日收盤價;未覆蓋公司數據采用 wind 一致預期)行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 40 5 風險提示 1)大模型發展不及預期。大模型的發展可能會遇到階段性瓶頸,若用于訓練的公共數據消耗殆盡,則大模型的迭代可能會放緩,難以吸引用戶付費進行體驗。2)CSP 自研算力不及預期。相較于
113、英偉達,CSP 自研 AI 算力起步更晚,軟件生態相對不足,如果 CSP 自研 AI 算力不及預期,則可能對產業鏈落地節奏及合作伙伴業績帶來不利影響。3)AI 終端銷量不及預期。電子產品銷量具有不確定性,若大模型創新不足以吸引用戶付費體驗,AI 終端的下游需求不佳,將對板塊內公司業績造成不利影響。行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 41 插圖目錄 圖 1:AI 大模型對算力的需求超過摩爾定律.3 圖 2:Scaling Law 的三要素:算力、數據量、參數規模.4 圖 3:2018-2028 年全球數據量.4 圖 4:大模型 Scali
114、ng Law 將在 2028 年左右開始顯著放緩.4 圖 5:低精度的訓練數據增多可能反而對模型性能造成損害.5 圖 6:使用更高精度的數據將減小因數據質量不佳而對模型性能造成的損害.5 圖 7:豆包大模型使用量快速增長.6 圖 8:推理對模型重要性提升.7 圖 9:谷歌 TPU.7 圖 10:AI 發展歷程復盤.8 圖 11:1Q20-4Q24 北美云商資本開支(億美元).10 圖 12:2021-2024E 北美云商資本開支(億美元).10 圖 13:北美云商云業務收入(億美元)及同比增速.10 圖 14:國內云商云業務收入(億美元)及同比增速.10 圖 15:2022-2024 年全球
115、AI 芯片競爭格局.11 圖 16:Trainium2 芯片.13 圖 17:Trainium2 內部組件.13 圖 18:博通兩大核心客戶 AI 芯片戰略規劃.15 圖 19:博通兩大核心客戶 AI 芯片戰略規劃.15 圖 20:傳統服務器 PCB 應用.16 圖 21:DGX H100 AI 服務器中 OAM 和 UBB(綠色).16 圖 22:GB200 服務器 PCB 方案發生變化.17 圖 23:搭載有谷歌第六代 TPU 芯片 Trillium 的 PCB.17 圖 24:亞馬遜 Trainium2 Compute Tray.18 圖 26:英偉達 DGX H100 GPU Tray
116、.18 圖 27:英偉達 GB200 NVL 72 機柜架構.19 圖 28:GB200 NVL72 架構的通信解決方案.20 圖 29:Rack 內部銅互聯解決方案.20 圖 30:Rack 之間的銅互聯解決方案.20 圖 31:全球 DAC、AEC、AOC 市場規模(十億美元).21 圖 32:DAC、AEC、AOC 功耗對比.22 圖 33:DAC、AEC、AOC 成本對比.22 圖 34:Trainium2 Rack.23 圖 35:Trainium2-Ultra Rack.23 圖 36:風冷及液冷對比.24 圖 37:冷板式液冷系統示意圖.25 圖 38:浸沒式液冷原理示意圖.25
117、 圖 39:AI 帶動服務器機柜功率及功率密度持續提升.26 圖 40:機架式服務器系統及電源框圖.27 圖 41:AI 服務器采用三級電源解決方案.27 圖 42:國內各大模型 2024 年(截至 11 月 15 日)廣告投放投入.29 圖 43:字節跳動 2024 年硬件布局.29 圖 44:豆包通用模型 pro 能力全面提升.31 圖 45:Trainium2-Ultra Rack.31 圖 46:火山引擎時間安排表.31 圖 47:AI 終端廣闊空間.32 圖 48:AI+硬件持續落地.33 表格目錄 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券
118、研究報告 42 重點公司盈利預測、估值與評級.1 表 1:英偉達客戶在加速卡領域的布局情況.12 表 2:Trainum2 芯片參數.13 表 3:DAC、AEC、AOC 性能對比.22 表 4:豆包大模型推理需求測算.30 表 5:國產算力+端側產業鏈公司.31 表 6:數字芯片公司合作伙伴梳理.34 表 7:主要算力芯片參數.35 表 8:重點關注個股.39 行業深度研究/電子 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 43 分析師承諾 本報告署名分析師具有中國證券業協會授予的證券投資咨詢執業資格并登記為注冊分析師,基于認真審慎的工作態度、專業嚴謹的研究方法
119、與分析邏輯得出研究結論,獨立、客觀地出具本報告,并對本報告的內容和觀點負責。本報告清晰準確地反映了研究人員的研究觀點,結論不受任何第三方的授意、影響,研究人員不曾因、不因、也將不會因本報告中的具體推薦意見或觀點而直接或間接收到任何形式的補償。評級說明 投資建議評級標準 評級 說明 以報告發布日后的 12 個月內公司股價(或行業指數)相對同期基準指數的漲跌幅為基準。其中:A 股以滬深 300 指數為基準;新三板以三板成指或三板做市指數為基準;港股以恒生指數為基準;美股以納斯達克綜合指數或標普500 指數為基準。公司評級 推薦 相對基準指數漲幅 15%以上 謹慎推薦 相對基準指數漲幅 5%15%之
120、間 中性 相對基準指數漲幅-5%5%之間 回避 相對基準指數跌幅 5%以上 行業評級 推薦 相對基準指數漲幅 5%以上 中性 相對基準指數漲幅-5%5%之間 回避 相對基準指數跌幅 5%以上 免責聲明 民生證券股份有限公司(以下簡稱“本公司”)具有中國證監會許可的證券投資咨詢業務資格。本報告僅供本公司境內客戶使用。本公司不會因接收人收到本報告而視其為客戶。本報告僅為參考之用,并不構成對客戶的投資建議,不應被視為買賣任何證券、金融工具的要約或要約邀請。本報告所包含的觀點及建議并未考慮獲取本報告的機構及個人的具體投資目的、財務狀況、特殊狀況、目標或需要,客戶應當充分考慮自身特定狀況,進行獨立評估,
121、并應同時考量自身的投資目的、財務狀況和特定需求,必要時就法律、商業、財務、稅收等方面咨詢專家的意見,不應單純依靠本報告所載的內容而取代自身的獨立判斷。在任何情況下,本公司不對任何人因使用本報告中的任何內容而導致的任何可能的損失負任何責任。本報告是基于已公開信息撰寫,但本公司不保證該等信息的準確性或完整性。本報告所載的資料、意見及預測僅反映本公司于發布本報告當日的判斷,且預測方法及結果存在一定程度局限性。在不同時期,本公司可發出與本報告所刊載的意見、預測不一致的報告,但本公司沒有義務和責任及時更新本報告所涉及的內容并通知客戶。在法律允許的情況下,本公司及其附屬機構可能持有報告中提及的公司所發行證
122、券的頭寸并進行交易,也可能為這些公司提供或正在爭取提供投資銀行、財務顧問、咨詢服務等相關服務,本公司的員工可能擔任本報告所提及的公司的董事??蛻魬浞挚紤]可能存在的利益沖突,勿將本報告作為投資決策的唯一參考依據。若本公司以外的金融機構發送本報告,則由該金融機構獨自為此發送行為負責。該機構的客戶應聯系該機構以交易本報告提及的證券或要求獲悉更詳細的信息。本報告不構成本公司向發送本報告金融機構之客戶提供的投資建議。本公司不會因任何機構或個人從其他機構獲得本報告而將其視為本公司客戶。本報告的版權僅歸本公司所有,未經書面許可,任何機構或個人不得以任何形式、任何目的進行翻版、轉載、發表、篡改或引用。所有在本報告中使用的商標、服務標識及標記,除非另有說明,均為本公司的商標、服務標識及標記。本公司版權所有并保留一切權利。民生證券研究院:上海:上海市浦東新區浦明路 8 號財富金融廣場 1 幢 5F;200120 北京:北京市東城區建國門內大街 28 號民生金融中心 A 座 18 層;100005 深圳:深圳市福田區中心四路 1 號嘉里建設廣場 1 座 10 層 01 室;518048