《通信行業:光模塊時代的跨越從云計算邁向AI-240219(29頁).pdf》由會員分享,可在線閱讀,更多相關《通信行業:光模塊時代的跨越從云計算邁向AI-240219(29頁).pdf(29頁珍藏版)》請在三個皮匠報告上搜索。
1、 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。1 證券研究報告 科技科技 光模塊:時代的跨越,從云計算邁向光模塊:時代的跨越,從云計算邁向 AI 華泰研究華泰研究 通信通信 增持增持 (維持維持)通信設備制造通信設備制造 增持增持 (維持維持)研究員 王興王興 SAC No.S0570523070003 SFC No.BUC499 +(86)21 3847 6737 研究員 高名垚高名垚 SAC No.S0570523080006 +(86)21 2897 2228 聯系人 王珂王珂 SAC No.S0570122080148 +(86)21 2897 2228 聯系人 陳越兮
2、陳越兮 SAC No.S0570123070042 +(86)21 2897 2228 行業行業走勢圖走勢圖 資料來源:Wind,華泰研究 重點推薦重點推薦 股票名稱股票名稱 股票代碼股票代碼 目標價目標價 (當地幣種當地幣種)投資評級投資評級 中際旭創 300308 CH 177.76 買入 天孚通信 300394 CH 123.12 買入 華工科技 000988 CH 34.77 買入 太辰光 300570 CH 36.79 增持 資料來源:華泰研究預測 2024 年 2 月 19 日中國內地 專題研究專題研究 時代的跨越:云計算帶來的“白銀時代”,時代的跨越:云計算帶來的“白銀時代”,A
3、I 孕育的“黃金時代”孕育的“黃金時代”云廠商在 2010s 逐步成為以太網光模塊市場最重要的客戶群體,為產業帶來了諸多深遠的影響:1)更廣闊的市場需求;2)更快的迭代演進節奏;3)行業競爭格局的重塑,國產廠商跟隨優質客戶快速崛起。隨著 ChatGPT 以及 AIGC 拉開 AI 時代新序幕,光模塊產業有望再一次迎來波瀾壯闊的發展。我們判斷產業將會發生如下積極變化:1)市場空間的進一步擴張;2)迭代周期有望由此前的 34 年縮短至 2 年左右;3)競爭格局方面,在迭代周期縮短、技術門檻提高背景下,預計頭部廠商市場地位保持穩固。建議關注:中際旭創、天孚通信、華工科技、太辰光。云廠商自云廠商自 2
4、010s 發展為光模塊行業最重要的客戶群體發展為光模塊行業最重要的客戶群體 云廠商在過去十余年間逐步超過了電信、企業客戶,成為光模塊市場最大的客戶群體,根據 LightCounting,2022 年云廠商在全球以太網光模塊市場銷售額中的貢獻已達 67%。在云廠商需求的帶動下,全球光模塊出貨金額從2010年的7億美元增長至2022年的51億美元,對應期間的CAGR達18%。另一方面,相比于電信、企業客戶,云廠商對于光模塊的需求以更高的速率、更短的迭代周期為特征,2022 年全球 200G 及以上速率光模塊的需求中,谷歌、亞馬遜、Meta 三家廠商的份額合計占比超 85%。其中谷歌在過去十余年中保
5、持著 34 年一代的升級周期,引領著高速光模塊的迭代。云數據中心帶來更龐大的東西向流量,催生光模塊需求提升云數據中心帶來更龐大的東西向流量,催生光模塊需求提升 我們認為云廠商對光模塊的需求特征,背后指向著其數據中心的流量特點。由于分布式計算、虛擬化等技術的引入,云數據中心比傳統數據中心具有更高的東西向流量。在移動互聯網興起以及企業上云的時代背景下,2010s 全球數據中心東西向流量經歷迅速增長,根據思科統計,2010 年至 2016 年全球數據中心東西向流量由 887PB 增長至 5143PB,對全球數據中心總流量增量貢獻達 75%。相應地,云廠商快節奏地推動數據中心內部帶寬的提升,例如引入更
6、高速的服務器網卡、交換機、光模塊等;同時,云數據中心內部網絡架構由傳統三層架構轉向葉脊架構,帶來光模塊需求量的進一步提升。未來展望:未來展望:AI 或開啟光模塊產業的“黃金時代”或開啟光模塊產業的“黃金時代”展望 AI 時代光模塊產業的發展,我們認為與云計算時代的相似點為:更大的東西向流量有望帶來高速率光模塊需求的釋放。AI 訓練網絡中 GPU 間通信流量的顯著增長背景下,高速光模塊市場規模有望再上新臺階;而不同點包括:1)AI 時代,高速光模塊被大量部署在訓練網絡,由于訓練網絡不與用戶側發生直接連接,帶寬由端側的工作負載、時延要求等因素決定,因此光模塊的上量節奏更快;迭代周期方面,隨著英偉達
7、 GPU 產品迭代周期的縮短,光模塊速率升級周期預計提速。2)競爭格局方面,在 AI 數據中心中,隨著光模塊的可靠性要求提高、迭代周期縮短,頭部廠商市場地位預計穩固。投資建議投資建議 復盤過去 10 余年,移動互聯網的興起疊加云計算的快速發展為光模塊產業注入了長久的發展動力;展望未來,我們認為 AI 將開啟光模塊產業的新一輪成長周期,有望長期為產業帶來積極變化。我們看好切入海外頭部云廠商供應鏈的光通信廠商發展機遇,建議關注:【光模塊】中際旭創、華工科技;【光引擎&光器件】天孚通信、【MPO】太辰光。風險提示:全球 AI 算力側投入不及預期,光模塊行業競爭加劇。(23)(8)82338Feb-2
8、3Jun-23Oct-23Feb-24(%)通信通信設備制造滬深300 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。2 科技科技 正文目錄正文目錄 核心觀點核心觀點.4 與市場不同的觀點.5 光模塊歷史啟示光模塊歷史啟示:云計算帶來云計算帶來“白銀時代白銀時代”.6 2010s 云廠商逐步成為以太網光模塊市場最重要的客戶群體.6“移動互聯網興起+企業上云趨勢”是云廠商過去需求增長的核心驅動力.7 云計算的發展加速了數據中心流量(尤其是東西向)的攀升.9“網絡架構升級+端口帶寬提速”是解決數據中心流量瓶頸的唯二法門.11“多重優勢+產業轉移”使得過去十余年國內光模塊廠商快速崛起.
9、15 光模塊未來展望光模塊未來展望:AI 有望開啟有望開啟“黃金時代黃金時代”.16 縮放定律指引下,AI 訓練側投入或仍將保持提升.16 AI 時代數據擁有更龐大的東西向流量,更嚴格的低時延要求.18 端口吞吐量提升+胖樹網絡架構,高速率光模塊需求快速增長.19 AI 時代光模塊迭代周期縮短,1.6T 有望于 2024 年導入.22 競爭格局展望:頭部廠商市場地位預計穩固.24 重點推薦公司重點推薦公司.25 風險提示.26 圖表目錄圖表目錄 圖表 1:全球以太網光模塊出貨金額及同比增速.6 圖表 2:全球 100G 及以上以太網光模塊出貨金額及同比增速.6 圖表 3:2016 年光模塊下游
10、市場結構(按金額).6 圖表 4:2022 年光模塊下游市場結構(按金額).6 圖表 5:云廠商對各種速率光模塊的需求結構(按金額).7 圖表 6:電信運營商對各種速率光模塊的需求結構(按金額).7 圖表 7:企業客戶對各種速率光模塊的需求結構(按金額).7 圖表 8:20102019 年全球年下載量 top10 移動 App(不含游戲).8 圖表 9:2023 年全球社交平臺用戶喜愛度排名.8 圖表 10:2010s 全球數據中心流量經歷迅速增長.8 圖表 11:2010s 企業上云是明確的產業趨勢.9 圖表 12:東西向、南北向流量在網絡拓撲圖.9 圖表 13:云數據中心內部的帶寬需求約
11、DCI 需求的 30 倍以上.10 圖表 24:博通的交換機 ASIC 芯片速率保持兩年一代的升級周期.13 圖表 25:谷歌在數據中心內部所使用光模塊速率的升級歷程.13 圖表 26:2016 年全球 100G 光模塊需求迎來釋放(單位:百萬美元).14 圖表 29:全球前十大光模塊供應商變動情況(2010-2022).15 圖表 30:2021-2022 年各廠商在細分光模塊市場上份額.15 圖表 31:中國廠商在光組件和光模塊市場上份額.15 UZ0X3VBZVWBVUW7N9R9PtRoOpNqMlOpPtRlOnPpP9PpPwPNZnOnPNZnRnP 免責聲明和披露以及分析師聲明
12、是報告的一部分,請務必一起閱讀。3 科技科技 圖表 32:AI 大模型參數規模持續快速提升(單位:億).16 圖表 33:多模態大模型尚處于發展初期階段.17 圖表 34:微軟 Azure 及其他云服務的收入中,AI 服務貢獻的收入呈現快速增長趨勢.17 圖表 35:2024 年 2 月 OpenAI 發布最新的文生視頻模型 Sora.18 圖表 36:模型效率與計算節點數之間關系.19 圖表 37:端到端時延構成情況.19 圖表 38:英偉達 GPU 服務器搭載的網卡速率持續升級.19 圖表 39:傳統三層網絡架構的帶寬逐層收斂.20 圖表 40:Fat-Tree 架構.20 圖表 41:英
13、偉達 InfiniBand 網絡架構組成.20 圖表 42:TPU v4 43 方式 6 個面的鏈接形式.21 圖表 43:GH200 內存容量大幅提升.21 圖表 44:巨型內存 AI 工作負載下 GH200 性能表現突出.21 圖表 45:GH200 網絡架構.22 圖表 46:GH200 光模塊需求測算.22 圖表 47:數據中心前端網絡與后端網絡的對比.23 圖表 48:英偉達產品迭代路線圖.23 圖表 49:重點推薦公司一覽表.25 圖表 50:重點推薦公司最新觀點.25 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。4 科技科技 核心核心觀點觀點 2010s 在移動互
14、聯網興起以及企業上云等時代背景下,云廠商逐步超越電信、企業客戶,成為全球光模塊市場最為主要的需求方,為光模塊產業帶來了諸多深遠的變化。我們在本篇報告中梳理了過往十余年里云計算的快速發展為光模塊產業帶來的變化、分析了其背后的原因,并對 AI 時代光模塊產業的發展做出展望(如無特殊說明,本報告中提及的“光模塊”均指以太網光模塊,區別于用在長距離傳輸的相干光模塊等品類)。我們認為:云廠商對光模塊的需求特征,背后指向著其數據中心的流量特點云廠商對光模塊的需求特征,背后指向著其數據中心的流量特點。由于分布式計算、虛擬化等技術的引入,云數據中心比傳統數據中心具有更高的東西向流量。在移動互聯網的快速發展疊加
15、企業上云的驅動下,全球數據中心東西向流量經歷了迅速增長。相比于傳統數據中心,云廠商更快節奏地推動數據中心內部帶寬的提升,通過:1)引入更高速率的服務器網卡、交換機、光模塊等,標志性事件為云數據中心于 20152016 年開啟了 100G 以太網的部署;2)數據中心內部的網絡架構由傳統三層架構轉向葉脊架構,帶來光模塊需求量的進一步提升。2022 年全球 200G 及以上速率光模塊的需求中,谷歌、亞馬遜、Meta 三家廠商的份額合計占比超 85%。另一方面,國產光模塊廠商憑借自身的成本優勢、研發能力、交付能力以及滿足客戶要求的快速響應能力,逐步切入到全球頭部云廠商的供應鏈體系,跟隨著優質客戶在全球
16、光模塊市場中的地位取得大幅提升。展望 AI 時代光模塊產業的發展,我們認為會與云計算時代有如下相似點以及不同點:相似點:更大的東西向流量帶來高速率光模塊需求的釋放相似點:更大的東西向流量帶來高速率光模塊需求的釋放??s放定律(Scaling Law)的指引下,AI 大模型的參數量持續攀升,帶來了 AI 訓練網絡中 GPU 間通信(例如 All Reduce等)流量的顯著增長。同時基于對 GPU 利用率的追求,卡間通信的時延性要求也有進一步提升。云廠商通過如下方式提升 GPU 集群節點間的通信帶寬:1)提升端口吞吐量,如英偉達在 DGX H100 服務器中采用了 CX-7 網卡,速率達到了 400
17、G,較此前云廠商的通用服務器所主流使用的 50G、100G 網卡有較大升級,并配套引入了 800G 端口交換機、800G光模塊等;2)優化組網架構,如英偉達的 AI 訓練網絡采用了胖樹架構,相較于葉脊架構有更小了阻塞比,根據我們正文中的測算,該架構下 800G 光模塊的需求量與 H100 的規模呈線性相關。不同點:不同點:1)高速率光模塊的迭代周期和上量節奏背后的驅動力發生變化高速率光模塊的迭代周期和上量節奏背后的驅動力發生變化。云計算時代,光模塊在數據中心內部主要部署于前端網絡中,前端網絡所需要的帶寬很大程度上由用戶側的需求決定,因此光模塊的部署規模也視用戶端使用情況漸進式上量;而 AI 時
18、代,大量的高速光模塊被部署在訓練網絡中,由于訓練網絡屬于后端網絡,其不與用戶側發生直接連接,帶寬由端側的工作負載、時延要求等因素決定,因此光模塊的上量節奏更快;迭代周期方面,隨著英偉達 GPU 產品(2024 年的 B100;2025 年的 X100)迭代周期的縮短,光模塊速率升級周期預計提速,例如從 800G 邁向 1.6T 僅歷時 2 年,扭轉了此前云計算時代升級周期放慢的趨勢。2)競爭格局方面,競爭格局方面,預計預計頭部廠商市場地位保持穩固。頭部廠商市場地位保持穩固。我們認為在 AI 數據中心中,隨著光模塊的可靠性要求提高、迭代周期縮短,帶來行業技術門檻有望顯著提升,光模塊龍頭廠商產品的
19、高度可靠性、領先的研發實力及交付能力等優勢有望在 AI 時代進一步凸顯,我們預計頭部廠商市場地位保持穩固。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。5 科技科技 與市場不同的觀點與市場不同的觀點 1)市場擔憂 AI 網絡對于光模塊的需求或于 2024 年見頂。我們認為:AI 大模型的迭代仍在快速邁進,其中如多模態大模型尚處于發展早期階段,在縮放定律的指引下,各廠在縮放定律的指引下,各廠商對于大模型訓練的投入強度仍有望保持提升商對于大模型訓練的投入強度仍有望保持提升。此外,隨著 AI 大模型的不斷發展,“對齊”(Alignment)等領域亦有望產生額外的算力需求;AI 商用進展
20、正在持續推進,商用進展正在持續推進,逐步使逐步使 AI 產業形成閉環產業形成閉環。我們認為未來 AI 推理側需求的釋放,尤其是隨著多模態大模型的推進,圖片生成、視頻生成等應用的不斷發展或對于 AI 推理網絡吞吐量、通信帶寬等要求進一步提升,有望帶來高速光模塊需求的充分釋放。隨著 AI 應用的不斷涌現,云計算側基礎設施有望釋放持續的升級需求,以支持更大規模,更高性能的計算場景。當前當前 800G 光模塊主要用于光模塊主要用于 AI 訓練網絡中,我們認為云計算側對于訓練網絡中,我們認為云計算側對于 800G 光模塊光模塊的需求也將隨著的需求也將隨著 AI 應用的發展而提升應用的發展而提升。2)市場
21、擔憂光模塊市場競爭格局惡化。我們認為在我們認為在 AI 時代,高速光模塊行業的門檻或進時代,高速光模塊行業的門檻或進一步提高,一步提高,預計預計頭部廠商市場地位頭部廠商市場地位保持保持穩固穩固。AI 大模型訓練周期長、中斷次數多,如何降低平均無故障時間是大模型訓練中面臨的最大挑戰之一。從網絡設備硬件的角度來看,光模塊的可靠性尤為關鍵,因為光模塊作為 AI 訓練網絡中最易出現的故障點,很大程度上決定著大模型訓練效率的高低。我們認為在 AI 數據中心中,隨著光模塊的可靠性要求提高、迭代周期縮短,光模塊龍頭廠商產品的高度可靠性、領先的研發實力及交付能力等優勢有望進一步凸顯,我們預計頭部廠商市場地位保
22、持穩固。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。6 科技科技 光模塊歷史啟示:云計算帶來光模塊歷史啟示:云計算帶來“白銀時代”“白銀時代”2010s 云廠商逐步成為以太網光模塊市場最重要的客戶群體云廠商逐步成為以太網光模塊市場最重要的客戶群體 以太網光模塊市場在過去十幾年里經歷了快速以太網光模塊市場在過去十幾年里經歷了快速擴張擴張。根據 LightCounting 的統計,全球以太網光模塊出貨金額從 2010 年的 7.29 億美元增長至 2022 年的 50.82 億美元,對應期間的CAGR 為 18%;其中高速率產品貢獻了絕大部分的增量,全球 100G 及以上速率的光模
23、塊出貨金額由2010年的0.14億美元攀升至2022年的43.39億美元,對應期間CAGR為62%,高速光模塊市場規模持續擴張的背后是云廠商需求的推動。圖表圖表1:全球以太網光模塊出貨金額全球以太網光模塊出貨金額及同比增速及同比增速 圖表圖表2:全球全球 100G 及及以上以上以太網光模塊出貨金額以太網光模塊出貨金額及同比增速及同比增速 資料來源:LightCounting,華泰研究 資料來源:LightCounting,華泰研究 光模塊行業下游光模塊行業下游客戶結構的變遷:從企業客戶結構的變遷:從企業主導主導轉向云廠商轉向云廠商主導主導。2007 年前后,谷歌在其數據中心內開始部署 10G
24、光模塊,拉開了云廠商對光模塊采購需求的序幕,彼時光模塊最大的下游市場為企業數據中心(即傳統數據中心)。根據 LightCounting 于 2023 年 7 月發布的Mega Data Center Optics中的數據,2016 年全球以太網光模塊的銷售額中,企業客戶貢獻了 42%的份額,仍位居第一位,其次分別為云廠商、電信運營商,分別貢獻了 36%、22%的份額。2022 年,云廠商在全球光模塊市場的銷售額中占比攀升至 67%,超越了企業與電信領域,成為光模塊下游第一大客戶群體。圖表圖表3:2016 年年光模塊光模塊下游下游市場市場結構結構(按金額)(按金額)圖表圖表4:2022 年年光模
25、塊下游光模塊下游市場市場結構結構(按金額)(按金額)資料來源:LightCounting:Mega Data Center Optics,華泰研究 資料來源:LightCounting:Mega Data Center Optics,華泰研究 云廠商需求特征:云廠商需求特征:更高的更高的速率、速率、更短更短的的迭代迭代周期周期。相比于企業、電信市場客戶,云廠商除了對光模塊需求量更大以外,其數據中心中通常采用了更高速率的光模塊,且升級迭代的周期更短。根據 LightCounting 的統計,2016 年云廠商在數據中心內部開始批量部署 100G光模塊,2018 年 100G 光模塊占云廠商需求金
26、額的比重已達 81%。20182019 年以谷歌、亞馬遜為首的云廠商開始在數據中心內導入 400G 光模塊,2022 年云廠商數據中心內 200G、400G 光模塊已成為主流,合計占其當年需求金額的比重為 67%。另一方面,2022 年全球200G 及以上速率光模塊的需求中,谷歌、亞馬遜、Meta 三家廠商的份額合計占比超 85%-30%-20%-10%0%10%20%30%40%50%01,0002,0003,0004,0005,0006,0002010201120122013201420152016201720182019202020212022全球以太網光模塊出貨金額(百萬美金)yoy(
27、右軸)-50%0%50%100%150%200%250%300%350%01,0002,0003,0004,0005,0002010201120122013201420152016201720182019202020212022全球100G及以上以太網光模塊出貨金額(百萬美金)yoy(右軸)Cloud,36%Enterprise,42%Telecom,22%Cloud,67%Enterprise,19%Telecom,14%免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。7 科技科技 電信市場方面,2018 年已主要采用 100G 光模塊,占其當年需求金額的比重約 64%;2022
28、年仍主要采用 100G 速率,占其當年需求金額的比重為 71%。企業客戶方面,2018 年主要使用 10G 光模塊,占其當年需求金額的比重為 42%,同期已開始少量部署 100G 光模塊;至 2022 年企業數據中心內 100G 光模塊的需求占比 40%,成為主流,更高速率的產品仍未批量部署。圖表圖表5:云廠商對各種速率云廠商對各種速率光模塊光模塊的需求結構的需求結構(按金額按金額)資料來源:LightCounting:High-Speed Ethernet Optics,華泰研究 圖表圖表6:電信運營商電信運營商對各種速率光模塊的需求結構(按金額)對各種速率光模塊的需求結構(按金額)圖表圖表
29、7:企業客戶企業客戶對各種速率光模塊的需求結構(按金額)對各種速率光模塊的需求結構(按金額)資料來源:LightCounting:High-Speed Ethernet Optics,華泰研究 資料來源:LightCounting:High-Speed Ethernet Optics,華泰研究 “移動互聯網移動互聯網興起興起+企業上云企業上云趨勢趨勢”是云廠商過去”是云廠商過去需求增長需求增長的核心驅動的核心驅動力力 移動互聯網經歷蓬勃發展,網絡帶寬需求不斷提升移動互聯網經歷蓬勃發展,網絡帶寬需求不斷提升。在智能手機的普及、3G/4G/5G 網絡技術的不斷發展、上網流量單位成本的快速下降等多重
30、因素的推動下,2010s 移動互聯網經歷了蓬勃發展,全球網絡活躍用戶數量持續攀升;另一方面,從移動 App 類別的發展來看,從最初的搜索(Google)、社交(微信、Facebook)、長視頻(YouTube)等逐步豐富至圖片分享(Instagram)、短視頻(抖音、TikTok)、網絡直播(抖音、小紅書)等。以上發展趨勢均對網絡帶寬提出了更高要求,其中云計算作為移動互聯網的核心技術底座之一也得到了充分發展,云基礎設施呈現持續升級的態勢。0%10%20%30%40%50%60%70%80%90%100%2018201920202021202240G100G200G400G800G1.6T0%2
31、0%40%60%80%100%201820192020202120221G10G100G400G800G0%20%40%60%80%100%201820192020202120221G10G25G40G&50G100G400G 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。8 科技科技 圖表圖表8:20102019 年全球年下載量年全球年下載量 top10 移動移動 App(不含游戲)(不含游戲)圖表圖表9:2023 年全球年全球社交平臺社交平臺用戶喜愛度排名用戶喜愛度排名 資料來源:data.ai,華泰研究 資料來源:Meltwater,We are Social,華泰研究 全
32、球數據流量經歷迅速增長全球數據流量經歷迅速增長,云計算所承載的比重持續提升,云計算所承載的比重持續提升。過去十余年中,隨著移動互聯網、物聯網等產業的快速發展,數據量和數據應用不斷增長,全球數據中心的流量迅速攀升。根據思科于 2011 至 2018 年發布的全球云指數系列報告,全球數據中心合計流量由2010 年的 1141PB 增長至 2016 年的 6819PB,期間的 CAGR 達 29.1%。從結構來看,2010年全球數據中心流量中,云計算承載的比重為 11%,傳統數據中心占比為 89%;2013 年云計算占比首次超過傳統數據中心,達到 54%;發展至 2016 年,云數據中心承載的流量占
33、比已經達到 88%。圖表圖表10:2010s 全球數據中心流量經歷迅速增長全球數據中心流量經歷迅速增長 資料來源:Cisco Global Cloud Index:Forecast and Methodology,華泰研究 企業企業“上云”“上云”是是 2010s 明確的產業趨勢明確的產業趨勢。根據文獻大規模數據中心內云計算網絡演變的研究及分析,云計算采用虛擬化、分布式計算、分布式存儲、資源管理等技術,將彈性、可共享、可伸縮性的軟硬件資源池化,再通過網絡等方式向客戶提供按需自助、可計量的服務。云計算作為一種 IT 基礎設施交付和使用模式,具有靈活、按需自服務、高擴展性、低成本等特點,能有效降低
34、企業的運營成本,節省投資。2010s 企業上云為全球明確的產業趨勢,根據思科發布的全球云指數系列報告,2010 年 79%的工作負載部署在傳統數據中心,云數據中心工作負載占比僅 21%;2013 年云數據中心工作負載量超過傳統數據中心,達 53%;截至 2016 年,已有 83%的工作負載部署在云數據中心。我們認為在該趨勢的演進下,云廠商逐漸成為了主導光模塊、交換機等云網基礎設施市場的客戶群體。-30%-20%-10%0%10%20%30%40%50%60%01,0002,0003,0004,0005,0006,0007,0008,0002010201120122013201420152016
35、云數據中心流量傳統數據中心流量增長率89%54%88%PetabyteCAGR:29.1%免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。9 科技科技 圖表圖表11:2010s 企業上云是明確的產業趨勢企業上云是明確的產業趨勢 資料來源:Cisco Global Cloud Index:Forecast and Methodology,華泰研究 云計算的發展云計算的發展加速加速了了數據中心流量數據中心流量(尤其是東西向)的(尤其是東西向)的攀升攀升 在云計算時代,流量模式發生了較大變化,由傳統數據中心中的南北向流量模式轉變為了在云計算時代,流量模式發生了較大變化,由傳統數據中心中的
36、南北向流量模式轉變為了云數據中心的東西向流量模式云數據中心的東西向流量模式。東西向流量指數據中心內部的數據傳輸,由于網絡拓撲圖中數據中心內部流量通常橫向繪制,“東西向”說法由此而來。南北向流量則描述進出數據中心的數據流,通常涉及數據中心與外部客戶端之間的通信。根據此前Facebook(現Meta)于 2013 年的統計,用戶在朋友圈一個“點贊”動作,會發起到數據中心 1KB 的 HTTP 請求,而在數據中心內部則放大為 930KB 的并行操作,包括 88 次 Cache 查找(648KB),35 次數據庫查找(25.6KB)和 392 次后端 RPC 調用(257KB)。圖表圖表12:東西向、
37、南北向流量在網絡拓撲圖東西向、南北向流量在網絡拓撲圖 資料來源:TechTarget,華泰研究 更大的數據中心東西向流量更大的數據中心東西向流量疊加應用端的快速發展疊加應用端的快速發展,驅動云廠商需要向數據中心內部匹配,驅動云廠商需要向數據中心內部匹配更大的互聯帶寬更大的互聯帶寬。根據 LightCounting 于 2021 年發布的報告LightCounting Mega Data Center Optics中的模型,云計算數據中心內部的帶寬需求約為 DCI(數據中心互聯)的30 倍以上。我們認為相比于傳統數據中心,云數據中心因為有著更大規模的東西向流量,是導致云廠商通常需要更多的、更高速
38、率的光模塊的核心原因,同時隨著移動互聯網用戶側需求的持續增長,也帶來了云數據中心內部光模塊向更高速率的演進。0%10%20%30%40%50%60%70%80%90%100%2010201120122013201420152016傳統數據中心工作負載云數據中心工作負載79%53%83%免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。10 科技科技 圖表圖表13:云數據中心內部的帶寬需求約云數據中心內部的帶寬需求約 DCI 需求的需求的 30 倍以上倍以上 資料來源:LightCounting,華泰研究 分布式計算分布式計算+虛擬化技術,帶來云數據中心更大的東西向流量虛擬化技術,帶來
39、云數據中心更大的東西向流量。根據文獻云數據中心中軟件定義網絡的研究中的分析,云計算數據中心中東西向流量更大主要的原因包括:1)分布式計算模式的引入。云計算采用分布式計算,如大數據處理、大規模搜索引擎等,數據中心內不同的服務器間需要相互協作。因此,不同的服務器之間存在著大量數據流量;2)虛擬機動態遷移。虛擬化技術被廣泛地應用于云計算數據中心,虛擬機的動態遷移成為數據中心中的重要場景。虛擬機動態遷移指可以將一個運行中的虛擬機在保障虛擬機所承載業務連續性基礎上,從一臺物理主機移動到另外一個。在遷移過程中,業務數據、配置數據等在虛擬機間的流動也帶來“東西向”流量的增加。圖表圖表14:2014/2018
40、 年存量年存量 x86 服務器中服務器中虛擬化滲透率虛擬化滲透率 圖表圖表15:2014/2018 年存量年存量 x86 服務器中虛擬操作系統實例服務器中虛擬操作系統實例占比占比 資料來源:Gartner:x86 Server Virtualization,Worldwide,2012-2018,華泰研究 資料來源:Gartner:x86 Server Virtualization,Worldwide,2012-2018,華泰研究 東西向流量占數據中心總流量的比重超東西向流量占數據中心總流量的比重超 70%。根據思科云指數系列報告,2010 年至 2016年全球數據中心東西向流量由 887PB
41、 增長至 5143PB,期間 CAGR 達 34%;在 2010 年至2016 年全球數據中心的流量增量中,東西向流量的貢獻達 75.0%。根據思科于 2018 年的預測,2021 年全球數據中心內部流量占總流量 71.5%,處于主導地位;而數據中心間/數據中心至用戶端的流量占比僅分別為 13.6%/14.9%。18%27%0%20%40%60%80%100%20142018采用虛擬化服務器不采用虛擬化服務器79%83%71%82%0%20%40%60%80%100%20142018虛擬服務器操作系統實例非虛擬服務器操作系統實例79%53%83%免責聲明和披露以及分析師聲明是報告的一部分,請務
42、必一起閱讀。11 科技科技 圖表圖表16:20102016 年數據中心流量增年數據中心流量增量的量的 75%由由東西向東西向流量貢獻流量貢獻 圖表圖表17:Cisco 預測預測 2021 年數據中心內部流量占比達年數據中心內部流量占比達 71.5%資料來源:Cisco Global Cloud Index:Forecast and Methodology,華泰研究 資料來源:Cisco Global Cloud Index:Forecast and Methodology,華泰研究 云數據中心云數據中心的東西向的東西向流量主要集中于機架內流量主要集中于機架內。值得注意的是,上文中思科所統計的數
43、據中尚不包括機架內的流量。Theophilus Benson 等人于 2010 年發表的論文Network Traffic Characteristics of Data Centers in the Wild中分析了傳統數據中心(企業、學校等)以及云數據中心內部流量特征的差異,一個鮮明的對比即云數據中心中,機架內所產生的數據流量占比平均達近 75%,而傳統數據中心則不足 50%。我們認為換句話而言,在傳統數據中心的內部流量中,機架內流量與機架外流量大致相等;而云數據中心中,機架內的數據流量接近機架外流量的三倍,即如果考慮到機架內流量,云數據中心的東西向流量的占比會較傳統數據中心有進一步明顯提
44、升。圖表圖表18:Cisco 的統計中尚不包括機架內流量,而這部分規模更大的統計中尚不包括機架內流量,而這部分規模更大 圖表圖表19:云數據中心內部流量中,機架內流量占比高于傳統數據中心云數據中心內部流量中,機架內流量占比高于傳統數據中心 資料來源:Cisco Global Cloud Index:Forecast and Methodology(2016年11 月),華泰研究 資料來源:Network Traffic Characteristics of Data Centers in the Wild(2010 年11 月),華泰研究 “網絡架構網絡架構升級升級+端口端口帶寬帶寬提速提速”
45、是解決數據中心流量瓶頸的唯二法門”是解決數據中心流量瓶頸的唯二法門 葉脊網絡架構滲透率提升,帶來更多光模塊需求。葉脊網絡架構滲透率提升,帶來更多光模塊需求。云時代背景下,云數據中心的網絡架構由傳統的三層架構向大二層架構或葉脊(Spine-Leaf)架構演進。傳統數據中心的三層設計在過去很適合南北向流量的傳輸。但是對于高東西向流量需求的云數據中心,三層結構存在高延遲、可擴展性受限等問題。云時代數據中心的葉脊架構形成了一個類似于葉脊的拓撲結構,每個葉子(Leaf)交換機都連接到每個脊柱(Spine)交換機,東西向流量只需經過兩個物理跳轉,從而降低了延遲和丟包率。在葉脊網絡架構下,由于每臺脊交換機都
46、與所有葉交換機相連,帶來連接端口呈倍數增加,這也帶來了云數據中心中光模塊需求量的顯著提升。01,0002,0003,0004,0005,0006,0007,0008,0002010增量2016數據中心到用戶數據中心間數據中心內75.0%10.6%14.4%14.9%13.6%71.5%數據中心到用戶數據中心間數據中心內 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。12 科技科技 圖表圖表20:數據中心傳統三層網絡架構數據中心傳統三層網絡架構 圖表圖表21:數據中心葉脊網絡架構數據中心葉脊網絡架構 資料來源:葉脊架構在數據中心的應用,華泰研究 資料來源:葉脊架構在數據中心的應用,
47、華泰研究 服服務器網卡務器網卡端口端口帶寬的升級,是數據中心內部網絡提速的“起點”帶寬的升級,是數據中心內部網絡提速的“起點”。數據中心東西向流量的快速增長,驅動服務器所搭載的網卡帶寬提升。根據 Data Center Knowledge 于 2018 年 9月 18 日發布的一篇報道,2010 年常見的網卡速率是 1GE,其后五年內 1GE 和 10GE 網卡共同占據市場。2014 年谷歌、微軟、Arista 網絡、博通和 Mellanox 等公司成立 25G 以太網聯盟,推動 IEEE 于 2016 年制定了 IEEE 802.3by 25G 以太網標準。數據中心可通過四個 25G 通道實
48、現 100G 網絡,相比于 10G/40G 網絡,25G/100G 網絡擁有更高的網絡帶寬、實現光纖復用、端口向下兼容等優勢,被云廠商視為下一代升級主流。2016 年至 2020 年間,通用服務器網卡速率從 10GE 演進到 25GE,并快速推進到如今的 100GE。因為服務器網卡在數據中心內部的網絡中屬于接入層,故其帶寬的升級會相應地帶動交換機、光模塊速率的提升。圖表圖表22:不同速率網卡發貨量趨勢不同速率網卡發貨量趨勢 圖表圖表23:50GE 網卡與網卡與 100GE 網卡增長率趨勢網卡增長率趨勢 資料來源:Crehan Research Long-range Forcast,華泰研究 資
49、料來源:Crehan Research Long-range Forcast,華泰研究 交換機交換機 ASIC 芯片保持兩年一代的升級周期芯片保持兩年一代的升級周期。云廠商數據中心內部流量的快速增長帶來服務器網卡升級背景下,所匹配的交換機速率需要同步升級。以博通為大型云廠商提供的Tomahawk 系列 ASIC 芯片(脫胎于博通的 Trident 產品線)為例,2010 年以來保持著兩年一代的升級周期。2022 年 8 月,博通宣布推出 Tomahawk 5 芯片,帶寬達到 51.2T,較其2010 年時期產品的 640G 帶寬已提升了 80 倍。0102030405060702015A201
50、6A2017A2018E 2019E2020E 2021E2022E 2023E1GE10GE25GE40GE50GE100GE200GE百萬0%50%100%150%200%250%2018E2019E2020E2021E2022E2023E50GE100GE 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。13 科技科技 圖表圖表24:博通的交換機博通的交換機 ASIC 芯片速率保持兩年一代的升級周期芯片速率保持兩年一代的升級周期 資料來源:Broadcom 官網,華泰研究 光模塊速率保持持續提升態勢。光模塊速率保持持續提升態勢。隨著服務器網卡、交換機帶寬的持續迭代升級,光模塊
51、速率也向著更高速率發展。云廠商隨著自身業務的擴張,保持著較快的光模塊更迭周期。以谷歌為例,2010 年以來谷歌保持著 34 年一代的升級周期(該周期略長于交換機 ASIC 芯片,我們認為或因交換芯片從產品推出到成熟量產,存在 12 年的時間差;另一方面,云廠商或不會采購每一代交換機芯片,存在跳代升級的情況),根據 LightCounting,2010 年谷歌率先在數據中心內部小批量部署 40G 光模塊,至 2024 年有望開始小批量部署 1.6T 光模塊,是全球高速率光模塊迭代的引領者。圖表圖表25:谷歌在數據中心內部所使用光模塊速率的升級歷程谷歌在數據中心內部所使用光模塊速率的升級歷程 資料
52、來源:LightCounting,華泰研究 2016 年云廠商年云廠商對對 100G 光模塊光模塊的需求集中釋放的需求集中釋放。100G 光模塊是云廠商光模塊升級歷史中的標志性產品之一。隨著 25G 服務器網卡、100G 交換機,以及 100G 光模塊上游關鍵原材料技術的成熟,2016 年云廠商數據中心內部開啟了 100G 光模塊的集中部署,推動當年全球 100G 光模塊采購金額同比增長 159%至 11 億美金,占當年總體光模塊市場的比重同比提升 21pct 至 44%。在此后的 20172018 年,云廠商對于 100G 光模塊的采購金額仍保持增長。2019 年在下游客戶去庫存背景下,10
53、0G 光模塊價格明顯下滑,導致采購金額呈現波動。而隨著2020年價格的企穩,100G光模塊市場重回增長。另一方面,隨著20182019年谷歌、亞馬遜陸續開啟 400G 光模塊的部署,為光模塊市場注入了新的增長動力。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。14 科技科技 圖表圖表26:2016 年年全球全球 100G 光模塊需求迎來釋放(單位:百萬美元)光模塊需求迎來釋放(單位:百萬美元)資料來源:LightCounting,華泰研究 從北美各家云廠商對光模塊的歷史需求量特征來看,谷歌、Meta 對歷代產品的部署周期通常更短,其中谷歌通常是新一代光模塊的先行者(如上文所述),
54、我們認為這或與谷歌數據中心內部采用光交換機方案有關,在進行光模塊的升級換代時不需要光交換機的重大升級做配合,因此上量節奏可以更快;而亞馬遜對每一代光模塊的部署節奏更持久,即從批量部署(年需求量達到 1 萬只)開始至需求達到峰值的時間更長,我們認為或與其基于性價比的考慮,以及其數據中心內部交換機等配套網絡設備的迭代周期有關。我們認為不同云我們認為不同云廠商需求的“錯峰”,有望在一定程度上熨平光模塊廠商需求的“錯峰”,有望在一定程度上熨平光模塊總體總體需求的周期波動幅度。需求的周期波動幅度。從具體數據來看,例如 100G 光模塊時代,根據 LightCounting 數據,谷歌、Meta、亞馬遜同
55、時自 2016 年開始批量部署,至 2018 年谷歌需求達峰(201 萬只),2019 年 Meta 需求達峰(171 萬只),2020/2021 年亞馬遜需求達峰(160/161 萬只);200G/400G 時代,谷歌于 2018 年批量部署 400G,2021 年需求達峰(142 萬只);亞馬遜于 2019 年批量部署400G,至 2023 年預計需求量仍處于上升通道;Meta 于 2019 年批量部署 200G,至 2022年需求達峰(445 萬只)。歷史上微軟對以太網光模塊的采購需求相對較少,我們認為或與微軟的單一數據中心的規模多以中小型為主有關,但也由此帶來了較大的 DCI 需求,如
56、微軟是目前全球 400GZR 光模塊市場最大的客戶之一。圖表圖表27:北美云廠商對于北美云廠商對于 100G 光模塊采購需求回顧(萬只)光模塊采購需求回顧(萬只)圖表圖表28:北美云廠商對于北美云廠商對于 200G/400G 光模塊采購需求回顧(萬只)光模塊采購需求回顧(萬只)資料來源:LightCounting,華泰研究 資料來源:LightCounting,華泰研究 01,0002,0003,0004,0005,0006,00020102011201220132014201520162017201820192020202120221G10G25G40G50G100G200G400G800G
57、其他05010015020025020162017201820192020202120222023E亞馬遜谷歌Meta微軟050100150200250300350400450500201820192020202120222023E亞馬遜-400G需求量谷歌-400G需求量Meta-200G需求量 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。15 科技科技 “多重優勢“多重優勢+產業轉移”使得過去十余年國內產業轉移”使得過去十余年國內光模塊光模塊廠商廠商快速快速崛起崛起 切入頭部云廠商供應鏈,切入頭部云廠商供應鏈,近十年來近十年來國產廠商國產廠商在全球光模塊在全球光模塊市場市場
58、中崛起中崛起。近十年來,國產光模塊廠商憑借自身的成本優勢、研發能力、交付能力以及滿足客戶要求的快速響應能力,逐步切入到全球頭部云廠商的供應鏈體系,跟隨著優質客戶在全球光模塊市場中的地位取得大幅提升。據 LightCounting 數據,2010 年全球光模塊銷售額前十大供應商中,國產廠商僅有武漢電信器件一家上榜,而 2022 年上榜中國廠商達到 7 家,分別為旭創(和 Coherent并列第一)、華為海思(第四)、光迅科技(第五)、海信寬帶(第六)、新易盛(第七)、華工科技(第八)、索爾思(第十,被華西股份收購);中國廠商在光組件和光模塊市場上份額從 2010 年的 15%上升至 2021 年
59、的 50%。其中中際旭創排名自 2021 年起與 II-VI(現Coherent 公司)并列全球第一位。圖表圖表29:全球前十大光模塊供應商變動情況(全球前十大光模塊供應商變動情況(2010-2022)資料來源:LightCounting,華泰研究 圖表圖表30:2021-2022 年各廠商在細分光模塊市場上份額年各廠商在細分光模塊市場上份額 圖表圖表31:中國廠商在光組件和光模塊市場上份額中國廠商在光組件和光模塊市場上份額 資料來源:LightCounting,華泰研究 資料來源:LightCounting,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。16 科技科技
60、 光模塊未來展望:光模塊未來展望:AI 有望開啟有望開啟“黃金時代”“黃金時代”縮放定律指引下,縮放定律指引下,AI 訓練側投入訓練側投入或或仍將仍將保持提升保持提升 縮放定律的指引下,縮放定律的指引下,AI 大模型參數規模持續快速提升大模型參數規模持續快速提升。2020 年,OpenAI 首次提出了縮放定律(Scaling Law),核心結論之一是 AI 大模型的性能會隨著參數數量、數據集大小和計算量的增加而提高,這意味著通過提高模型的參數量、擴大數據集規模,模型的性能可以獲得有預測性的提升;另一方面,谷歌的研究表明,當模型的參數量小于某一規模時,在部分復雜任務中的表現接近隨機,而當規模超過
61、某個閾值后,模型的性能會顯著提升,這種現象即“涌現”。在縮放定律的指引下,AI 大模型的參數規模呈現持續提升的趨勢,根據華為發布的星河 AI 網絡白皮書,在過去的 6 年時間里,AI 大模型參數量從最初Transformer 的 6500 萬增長到 GPT4 的 1.8 萬億,增幅超過 2 萬倍。圖表圖表32:AI 大模型參數規模持續快速提升大模型參數規模持續快速提升(單位:億)(單位:億)資料來源:華為星河 AI 網絡白皮書,華泰研究 AI 大模型訓練側所需大模型訓練側所需算力算力正正經歷經歷快速增長快速增長。根據文獻Estimating Training Compute of Deep L
62、earning Models,AI 大模型訓練側所需算力與參數規模*數據集規模呈正相關。隨著 AI 大模型參數規模以及訓練數據集的不斷增長,GPU 單卡算力的發展速度顯著落后于模型發展的算力需求,因此 GPU 大規模集群逐步成為了大模型訓練的核心算力底座。市場擔憂在 AI 應用尚未出現爆款之前,大模型訓練側對于算力的需求或于 2024 年見頂,進而導致光模塊需求呈現明顯周期性。我們認為:1)大模型的迭代仍在快速邁進,如多模態大模型尚處于發展早期階段,各廠商對于大模型訓練的投入強度仍有望保持提升,訓練端光模塊的需求有望持續飽滿;2)AI 商用進展正在持續推進,逐步使 AI 產業形成閉環。我們認為
63、未來 AI 推理側需求的釋放,以及對于云計算側需求的帶動,均有望成為光模塊市場新的增長動力。多模態大模型多模態大模型尚處于發展初期階段尚處于發展初期階段,預計將帶來更,預計將帶來更龐大龐大的算力需求的算力需求。當前單模態模型通常只能處理單一類型的數據,限制了提取的信息量和多樣性;而多模態模型可以同時處理來自不同來源(例如語言、圖像、音頻等)的信息,并對它們進行聯合理解和生成,能夠克服單一模態在任務特異性、數據限制和交互限制等方面的局限性,提高模型的性能和泛化能力,對于 AGI 的實現有重要意義。多模態大模型的算力需求或顯著高于純文本模態模型,根據半導體產業分析機構 SemiAnalysis 于
64、 2023 年 8 月發布的預測,谷歌訓練新一代多模態大模型 Gemini 所需的算力或是訓練 GPT-4 算力的 5 倍以上。我們認為多模態是 AI 大模型未來發展的大勢所趨,且當前尚處于初期階段,預計未來多模態模型的訓練側仍將推動算力需求的進一步釋放。Transformer65MGPT1117MBERT340MGPT21.5BT511BTurning-NLG17BGPT3175BMegatron-Turning530BPanGu-1.08TGPT41.8T02,0004,0006,0008,00010,00012,00014,00016,00018,00020,00020172017201
65、82019201920202020202120222023 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。17 科技科技 圖表圖表33:多模態大模型尚處于發展初期階段多模態大模型尚處于發展初期階段 資料來源:華為星河 AI 網絡白皮書,華泰研究 此外,此外,AI“對齊”亦“對齊”亦有望帶來額外的算力需求有望帶來額外的算力需求。我們認為未來隨著 AI 大模型的不斷發展,監管領域也會釋放出對于算力的需求。對齊(Alignment)即確保 AI 追求與人類價值觀相匹配的目標,確保 AI 以對人類和社會有益的方式行事,不對人類的價值和權利造成干擾和傷害。隨著 AI 大模型的快速迭代,產業
66、界也在致力于設計解決方案來指導或控制 AI 大模型的潛在風險,以防止其失控。OpenAI 曾在 2023 年 7 月表示,將動用現有算力的 20%以研究對于 AI 的對齊機制,例如訓練另一個智能體來協助評估、監督 AI,從而實現超級對齊;2023年 11 月上海交大生成式 AI 研究實驗室(GAIR)發表的論文Generative Judge For Evaluating Alignment中,也提到了用 AI 監督 AI 的思路,其開源了一個 130 億參數規模的大模型 Auto-J,該模型能以單個或成對的方式,評估各類模型在解決不同場景用戶問詢下的表現,旨在解決普世性、靈活性和可解釋性方面
67、的挑戰。AI 商用進展持續推進商用進展持續推進,推理側需求有望釋放,推理側需求有望釋放。除 AI 訓練網絡對于光模塊需求有望保持高位以外,我們認為 AI 推理側需求也有望隨著 AI 應用的落地而涌現。根據微軟在業績說明會中披露的數據,2Q234Q23(對應微軟財年的 4QFY232QFY24)微軟 Azure 及其他云服務的收入同比增速中,AI 服務的貢獻分別達 1%、3%、6%,則根據我們的測算,2Q234Q23微軟 Azure 及其他云服務的收入中,AI 服務貢獻的收入分別達 1.5、4.2、9.2 億美金,呈現快速提升態勢。另一方面,未來隨著多模態大模型的推進,圖片生成、視頻生成等應用的
68、不斷發展或對于 AI 推理網絡吞吐量、通信帶寬等要求進一步提升,有望帶來高速光模塊需求的進一步釋放。圖表圖表34:微軟微軟 Azure 及其他云服務的收入中,及其他云服務的收入中,AI 服務貢獻的收入服務貢獻的收入呈現快速增長趨勢呈現快速增長趨勢 資料來源:微軟財報,華泰研究 0%1%2%3%4%5%6%7%01002003004005006007008009001,0002Q233Q234Q23Azure中AI的收入測算(百萬美金)Azure增速中AI的貢獻(右軸)免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。18 科技科技 AI 應用的涌現,有望帶應用的涌現,有望帶動動 AI
69、 所需云所需云基礎設施基礎設施的的升級升級。如今在云平臺上開發 AI 大模型應用已經成為各大科技廠商的共識。在 2023 年 12 月召開的創原會2023 技術創新峰會上,中國信通院云大所副總工陳屹力表示,云計算天然可以整合、調度異構算力,向 AI 大模型提供靈活、彈性、高效的算力服務,令底層多元算力“物盡其用”,成為 AI 大模型強大的算力支撐底座;另一方面,云原生可有效提升應用部署所需資源的復用率,使用戶無需為閑置資源付費,有效降低 AI 大模型的創新成本。因此,從 20232024 年來看,云廠商在 AI側基礎設施的投資或對云計算側投資造成一定“擠占”;而長期來看,在 MaaS(模型即服
70、務)不斷發展的趨勢下,隨著 AI 應用的不斷涌現,AI 所帶來的云計算側基礎設施有望釋放持續的升級需求,以支持更大規模,更高性能的計算場景。當前時點 800G 光模塊主要用于 AI 訓練網絡中,我們認為云計算側對于 800G 光模塊的需求也將隨著 AI 應用的發展而提升。圖表圖表35:2024 年年 2 月月 OpenAI 發布最新的文生視頻模型發布最新的文生視頻模型 Sora 資料來源:OpenAI 官網,華泰研究 AI 時代數據擁有時代數據擁有更更龐大龐大的東西向流量,更的東西向流量,更嚴格嚴格的低時延要求的低時延要求 AI 數據中心數據中心的的東西向流量將東西向流量將顯著顯著增長增長。在
71、 AI 大模型分布式訓練場景中,存在頻繁的 All Reduce 操作,即在多個節點之間聚合和分發數據,例如目前主流訓練框架之一的數據并行訓練中,通過使用該通信操作來實現所有進程間梯度的同步。隨著 AI 大模型參數量的持續攀升,由此也帶來了 GPU 之間通信流量的顯著增長。根據中國移動通信研究院發布的面向 AI 大模型的智算中心網絡演進白皮書,以千億參數規模的 AI 大模型為例,從機內 GPU通信角度看,模型并行產生的 All Reduce 集合通信數據量將達到百 GB 級別;從機間 GPU通信角度看,部分集合通信數據也將達到百 GB 級別;由于網絡能力和計算能力需要高度匹配。云數據中心使用
72、CPU 計算,網絡需求一般在 10Gbps100Gbps;AI 超大模型訓練使用 GPU 訓練,算力顯著高于 CPU,目前互聯網絡需求已達 100Gbps400Gbps。我們認為隨著 AI 時代的到來,數據中心東西向流量預計將較云計算時代顯著增長。優化通信優化通信策略是提升策略是提升 AI 大模型訓練效率的關鍵大模型訓練效率的關鍵。我們認為在 GPU 集群卡間流量大幅增長背景下,優化通信策略是提升 AI 大模型訓練效率的關鍵。騰訊云副總裁王亞晨在 2023 年 6月舉辦的面向 AI 大模型的高性能網絡溝通會中提到,AI 大模型的運算實際上是一個通信過程,一部分 GPU 進行運算后需要與其他 G
73、PU 之間交互數據,通信帶寬越大,數據傳輸越快,等待時間就會越少,GPU 利用率越高。根據開放數據中心委員會 2021 年 9 月發布的總線級數據中心網絡技術白皮書,來到 AI 時代的數據中心,在計算、存儲器件性能大幅提升后,網絡成為了數據中心內端到端的性能瓶頸。傳統數據中心端到端時延中,網絡時延占比明顯少于計算、存儲;而當計算、存儲性能提升后,網絡時延的占比大幅提升至 80%以上,成為亟需升級的“短板”。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。19 科技科技 圖表圖表36:模型效率與計算節點數之間關系模型效率與計算節點數之間關系 圖表圖表37:端到端時延構成情況端到端時延
74、構成情況 資料來源:J.Keuper and F.-J.Preundt,Distributed Training of Deep Neural Networks:Theoretical and Practical Limits of Parallel Scalability(2016),華泰研究 資料來源:開放數據中心委員會數據中心網絡技術白皮書(2021),華泰研究 端口吞吐量提升端口吞吐量提升+胖樹網絡架構,高速率光模塊需求快速增長胖樹網絡架構,高速率光模塊需求快速增長 提升端口吞吐量以及引入新的網絡架構是提升端口吞吐量以及引入新的網絡架構是解決解決節點間通信節點間通信瓶頸瓶頸的的重要途徑
75、重要途徑。在 GPU 集群中,通信主要分為兩個部分:節點內通信,指一個計算節點內 GPU 間的信息傳輸,如英偉達引入 NVLink 代替 PCle,避免了服務器內部數據通過 PCIe 總線傳輸帶來的瓶頸問題;節點間通信,指不同計算節點之間的信息傳輸,節點間通信通常由網卡和網絡設備組成高性能網絡承載。提升端口吞吐量以及優化組網架構(減小阻塞比等)是提升節點間通信帶寬的重要方式,我們認為這也是近年來 AI 訓練網絡中對于 400G、800G 等高速率光模塊需求快速增長的核心原因之一。AI 網絡的網絡的端口吞吐量端口吞吐量呈現持續提升趨勢呈現持續提升趨勢。以英偉達的方案為例,其通過升級服務器端口網卡
76、速率以提升 AI 訓練網絡節點間帶寬。英偉達的 V100 服務器中,每個 V100 GPU 搭載一張 CX-5 網卡(ConnectX-5),吞吐速率為 100Gb/s;后續發布的 A100、H100 方案中,分別搭配 CX-6、CX-7 網卡,支持的速率分別為 200Gb/s、400Gb/s,較此前云廠商的通用服務器所主流使用的 50G、100G 網卡有較大升級,而其中的 CX-7 網卡可搭配 400G 光模塊,對應的交換機側則采用了 800G 光模塊?;谟ミ_歷代網卡速率保持翻倍提升的趨勢,我們預計英偉達下一代 GPU 產品 B100 有望搭配 CX-8 網卡,支持 800Gb/s 速率
77、。圖表圖表38:英偉達英偉達 GPU 服務器搭載的網卡速率持續升級服務器搭載的網卡速率持續升級 資料來源:英偉達官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。20 科技科技 無阻塞胖樹架構被引入無阻塞胖樹架構被引入 AI 訓練網絡訓練網絡。無阻塞胖樹(Fat-Tree)架構從葉子到樹根,網絡帶寬不收斂,其中的每個節點都需要保證上行帶寬和下行帶寬相等,能確保在多個層級間數據傳輸的均勻分布,從而促進整體通信的平滑運行,同時能靈活擴展網絡規模,因此Fat-Tree架構較為適合用于 AI 大模型的訓練網絡中。圖表圖表39:傳統三層網絡架構的帶寬逐層收斂傳統三層網絡架構的帶
78、寬逐層收斂 圖表圖表40:Fat-Tree 架構架構 資料來源:Al-Fares M,Loukissas A,Vahdat A“A Scalable,Commodity Data Center Network Architecture”.ACM SIGCOMM(2008),華泰研究 資料來源:Al-Fares M,Loukissas A,Vahdat A“A Scalable,Commodity Data Center Network Architecture”.ACM SIGCOMM(2008),華泰研究 依照依照英偉達英偉達 IB 網絡架構網絡架構設計設計,我們測算我們測算 DGX H10
79、0 中中 GPU:400G 光模塊光模塊:800G 光模塊光模塊之間的配比之間的配比為為 1:1:2.5。英偉達采用的網絡架構為 IB(InfiniBand)網絡,是一種無阻塞架構(胖樹),網絡側自下而上可分為架頂交換機、葉交換機、脊交換機三層架構:1)服務器層,每臺服務器中含有 8 顆 GPU,每個 GPU 與一個 400G 網卡相連,通過一個 400G光模塊輸出數據。2)架頂交換機和葉交換機層,分為上行和下行兩個鏈路,上行/下行鏈路均使用 800G 光模塊作為連接,為保證足夠的網絡帶寬,IB 采用無收斂的網絡架構,交換機的上行端口數與下行端口數相等,使用的光模塊數也相等。3)脊交換機層,由
80、于是最上層架構,僅需下行鏈路,每個端口對應需一個 800G 光模塊作為連接。綜上,假設 GPU 用量為 N 個,僅服務器層用到 N 個 400G 光模塊,架頂交換機和葉交換機層上行、下行鏈路共需 2N 個 800G 光模塊,脊交換機層需 0.5N 個 800G 光模塊。圖表圖表41:英偉達英偉達 InfiniBand 網絡架構組成網絡架構組成 資料來源:英偉達 DXG 架構白皮書,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。21 科技科技 谷歌的谷歌的 TPU 集群中光模塊需求的定量測算集群中光模塊需求的定量測算:2023 年 4 月,谷歌研究團隊發表論文提到 TPU
81、 v4 superpod 中有 4096 張 TPU v4 芯片,具體由 64 個 4x4x4 的模塊組成,這 64 張 TPU形成一個 cube 結構。光模塊用量方面,TPU v4 芯片配套的是 400G 光模塊,每個 cube有 6 個面,每個面上有 16 個鏈接,每個鏈接均會采用一只光模塊,對應每個 cube 需要部署 96 只 400G 光模塊,而每個 cube 由 64 張 TPU v4 芯片組成,即 TPU v4 與 400G 光模塊用量比例為 1:1.5。進一步地,谷歌亦發布了 TPU v5p,我們判斷引入了更大的互聯帶寬,若仍沿用上述提到的 cube 組網結構,TPU v5p
82、與 800G 光模塊的配比亦有望達到 1:1.5,從數量來看該配比或小于上文中 H100的組網方案(1:2.5),但考慮到H100的算力約是TPU v5p 的 4.3 倍(BF16 下,前者算力為 1979 TFLOPs,后者為 459TFLOPs),因此谷歌 TPU集群的單位算力所匹配的對外光互聯帶寬更大。圖表圖表42:TPU v4 43 方式方式 6 個面的鏈接個面的鏈接形式形式 資料來源:TPU v4:An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support,華泰研究 GPU
83、卡間的光互連帶寬仍有望保持提升卡間的光互連帶寬仍有望保持提升。繼 DGX H100 之后,英偉達于 2023 年 5 月推出DGX GH200,把 256 個 Grace Hopper 超級芯片連接為一起,可提供 1EFlops 的 FP8 Transform Engine算力,目標使用場景為存在GPU內存容量瓶頸的AI和HPC應用。GH200首次把 Grace Hooper 超級芯片與 NVLink Switch System 配對使用:1)Grace Hooper 超級芯片采用 NVLink-C2C 技術,可實現超快速的芯片到芯片、裸片到裸片互聯,使得 Grace CPU 和 Hopper
84、 H100 GPU 構成一個完整的系統,并實現內存的相互訪問,而不需要沿著“CPU-內存-主板-顯存-GPU”的 PCIe 路線,功耗效率、帶寬大幅提升。2)NVLink Switch System 使得系統中的 GPU 能夠以全頻寬互連,并在叢集中協同合作,可為運算密集的工作負載提供更高的頻寬并減少延遲。兩者配對使用,使得內存容量大幅上升,突破存儲瓶頸,在巨型內存 AI 工作負載下性能表現突出。圖表圖表43:GH200 內存容量大幅提升內存容量大幅提升 圖表圖表44:巨型內存巨型內存 AI 工作負載下工作負載下 GH200 性能表現突出性能表現突出 資料來源:NVIDIA 官網,華泰研究 資
85、料來源:NVIDIA 官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。22 科技科技 DGX GH200 集群中,單顆集群中,單顆 GPU 對外互聯帶寬提升至對外互聯帶寬提升至 450GB(單向)(單向)。GH200 網絡架構亦采用胖樹無阻塞結構,包括 L1 交換機和 L2 交換機層,我們用流量法自下而上進行測算,各層級帶寬情況為:1)芯片接入層:每個 GPU 采用 18 個 NVLink,每條 NVLink 單向帶寬為 25GB,即單個 GH 芯片帶來 1825GB=450GB 的單向接入帶寬,全部 256 個芯片帶來 256450GB=115200GB 的接入帶
86、寬;2)L1 NVLink 交換機層:共有 96 個交換機,每個交換機有 32 個網絡端口,下行和上行流量分別需要占用交換機 115200GB/96/100GB=12個端口;3)L2 NVLink 交換機層:共有 36 個交換機,每個交換機有 32 個網絡端口,端口容量為 3632100GB=115200GB,和接入層流量吻合,也印證該網絡架構為兩級、無阻塞 Fat-Tree 結構。依據依據 DGX GH200 網絡架構設計網絡架構設計,我們測算出,我們測算出 GPU 與與 800G 光模塊的比例為光模塊的比例為 1:9。1)芯片層與 L1 層之間:使用銅纜形態連接,無光模塊需求;2)L1 層
87、與 L2 層之間:256 顆芯片帶來的流量為 115200GB/s,單個 800G 光模塊傳輸能力為 100GB/s,單向傳輸需要115200GB/100GB=1152 個光模塊,即 L1 層上行鏈路和 L2 層下行鏈路分別需要 1152 光模塊,共需要 2304 光模塊?;谝陨贤评?,芯片接入層與 L1 層之間流量傳輸不需要光模塊(采用背板互聯方案),L1 層與 L2 層之間流量傳輸需要 2304 個光模塊,整個網絡架構需要 2304 個光模塊,GPU 與 800G 光模塊需求比例為 1:9。圖表圖表45:GH200 網絡架構網絡架構 圖表圖表46:GH200 光模塊需求測算光模塊需求測算
88、光模塊需求測算光模塊需求測算 芯片數 256 單個芯片帶寬 450GB/s 累計總帶寬 115200GB/s=單個 800G 光模塊傳輸能力 100GB/s 芯片接入層與 L1 層之間所需光模塊 0 L1 層與 L2 層之間所需光模塊 2304=2/芯片與光模塊比例 1:9=:資料來源:NVIDIA 官網,華泰研究 資料來源:NVIDIA 官網,華泰研究預測 AI 時代光模塊迭代周期縮短時代光模塊迭代周期縮短,1.6T 有望于有望于 2024 年導入年導入 后端網絡中,光模塊的后端網絡中,光模塊的上量節奏預計上量節奏預計將將顯著顯著加快加快。云計算時代,光模塊在數據中心內部主要部署于前端網絡中
89、,主要承載著數據中心內通用服務器為其他用戶(數據中心內部和外部用戶)提供服務的網絡流量,如業務網和數據同步網。前端網絡所需要的帶寬很大程度上由用戶側的需求決定,光模塊的部署規模也視用戶端使用情況漸進式上量;而 AI 時代,大量的高速光模塊被部署在后端網絡中,用于將 AI 大模型訓練端的大量 GPU 連接為集群。由于后端網絡不與用戶側發生直接連接,所以其中光模塊的上量節奏并不取決于外部用戶數量的增長,而是由端側的工作負載、時延要求等因素決定。如上文所述,如今大規模 GPU集群成為 AI 大模型的訓練算力底座,且對于時延要求較云計算時代進一步嚴格,因此光模塊的上量節奏預計較云計算時代更快。免責聲明
90、和披露以及分析師聲明是報告的一部分,請務必一起閱讀。23 科技科技 圖表圖表47:數據中心前端網絡與后端網絡的對比數據中心前端網絡與后端網絡的對比 資料來源:思科,云深知網絡,華泰研究 GPU 的加速迭代驅動光模塊升級的加速迭代驅動光模塊升級周期周期的的縮短,縮短,1.6T 有望加速導入有望加速導入。根據 SemiAnalysis 的預測,英偉達或將于 2024 年推出新一代 GPU B100,并預計于 2025 年推出 X100,其產品的迭代周期從 2 年縮短為 1 年。我們認為隨著英偉達 B100 的推出,有望帶來 1.6T 光模塊的加速導入。根據美國頭部光模塊廠商Coherent于202
91、4年2月發布的Shareholder letter,Coherent 判斷 1.6T 光模塊及器件(200G EML 等)將于 3Q24 形成收入。從迭代周期來看,以太網光模塊從 100G 的批量部署到 400G 的批量部署間隔了 2 年、從 400G 走向 800G 則經歷了 4 年,而從 800G 邁向 1.6T 僅歷時 2 年,扭轉了此前云計算時代升級周期放慢的趨勢,有望刺激下游云廠客戶需求的加快釋放。圖表圖表48:英偉達產品迭代路線圖英偉達產品迭代路線圖 資料來源:SemiAnalysis,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。24 科技科技 競爭格局展
92、望:競爭格局展望:頭部廠商市場地位預計穩固頭部廠商市場地位預計穩固 競爭格局競爭格局展望:展望:頭部廠商市場地位預計穩固頭部廠商市場地位預計穩固。市場擔憂隨著光模塊行業競爭對手的不斷加入,市場競爭格局或呈現惡化頭部廠商份額下降、價格超預期下行、行業盈利能力快速下降等。我們認為在 AI 時代,高速光模塊行業的門檻或進一步提高,頭部廠商市場地位預計穩固,基于如下考慮:AI 大模型訓練周期長、中斷次數多,根據華為發布的星河 AI 網絡白皮書中的舉例,某個千億大模型總訓練時長為 65 天,其間故障引起的重啟達到 50 多次,而真正的訓練時長只有 33 天,平均無故障時間(MTBF)僅為 1.3 天。如
93、何降低 MTBF 是大模型訓練中面臨的最大挑戰之一。從網絡設備硬件的角度來看,光模塊的可靠性尤為關鍵。在 2023 年 9 月華為全聯接大會中,華為數據通信產品線總裁王雷在星河 AI 網絡主題峰會上提到,光模塊是 AI 訓練網絡中最易出現的故障點,很大程度上決定著大模型訓練效率的高低。我們認為在 AI 數據中心中,隨著光模塊的可靠性要求提高、迭代周期縮短,光模塊龍頭廠商產品的高度可靠性、領先的研發實力及交付能力等優勢有望進一步凸顯(如頭部光模塊廠商基于與大客戶緊密的研發合作,有望在最新速率的光模塊中取得先發優勢),頭部廠商市場地位預計穩固。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起
94、閱讀。25 科技科技 重點推薦公司重點推薦公司 復盤過去 10 余年,移動互聯網的興起疊加云計算的快速發展為光模塊產業注入了長久的發展動力;展望未來,我們認為 AI 將開啟光模塊產業的新一輪成長周期,有望長期為產業帶來積極變化。我們看好切入海外頭部云廠商供應鏈的光通信廠商發展機遇,建議關注:【光模塊】中際旭創、華工科技;【光引擎&光器件】天孚通信、【MPO】太辰光。圖表圖表4949:重點重點推薦推薦公司一覽表公司一覽表 最新收盤價最新收盤價 目標價目標價 市值市值(百萬百萬)EPS(元元)PE(倍倍)股票名稱股票名稱 股票代碼股票代碼 投資評級投資評級(當地幣種當地幣種)(當地幣種當地幣種)(
95、當地幣種當地幣種)2022 2023E 2024E 2025E 2022 2023E 2024E 2025E 中際旭創 300308 CH 買入 127.00 177.76 101,959 1.52 2.64 6.35 7.68 83.55 48.11 20.00 16.54 天孚通信 300394 CH 買入 108.80 123.12 42,964 1.02 1.77 3.08 3.93 106.67 61.47 35.32 27.68 華工科技 000988 CH 買入 27.82 34.77 27,973 0.90 1.09 1.41 1.80 30.91 25.52 19.73 15
96、.46 太辰光 300570 CH 增持 32.10 36.79 7,383 0.78 0.65 0.90 1.12 41.15 49.38 35.67 28.66 注:數據截至 2024 年 02 月 18 日 資料來源:Bloomberg,華泰研究預測 圖表圖表50:重點推薦公司最新重點推薦公司最新觀點觀點 股票名稱股票名稱 最新觀點最新觀點 中際旭創中際旭創(300308 CH)2023 年業績高增長,年業績高增長,800G 光模塊快速放量光模塊快速放量 根據公司 2023 年度業績預告,公司預計 2023 年歸母凈利潤為 2023 億元,同比增長 63%88%,超過我們的預期(19 億
97、元),我們認為或因 800G光模塊需求的快速增長以及公司盈利能力的提升。4Q23 單季度來看,取區間中間值測算,歸母凈利潤為 8.5 億元,同比增長 130%,環比增長 25%??鄢蓹嗉钯M用對子公司蘇州旭創單體報表凈利潤的影響之前,2023 年蘇州旭創實現單體凈利潤約 2227 億元,同比增長 66%103%。我們上調公司 20232025 年歸母凈利潤預期分別至 21.20/50.97/61.67(前值:18.76/42.48/52.18)億元,可比公司 24 年 Wind 一致預期 PE 均值為 25x,考慮公司在數通 800G 光模塊領域的領先地位,給予公司 24 年 28x PE,
98、目標價為 177.76 元(前值:158.76 元),維持“買入”評級。風險提示:全球 800G 光模塊需求不及預期;800G 光模塊價格大幅度下滑。報告發布日期:2024 年 01 月 28 日 點擊下載全文:中際旭創點擊下載全文:中際旭創(300308 CH,買入買入):業績高增長,業績高增長,800G 光模塊紅利釋放光模塊紅利釋放 天孚通信天孚通信(300394 CH)2023 年業績超預期,高速率產品需求持續高增年業績超預期,高速率產品需求持續高增 根據公司 2023 年度業績預告,公司預計 2023 年歸母凈利潤為 6.87.6 億元,超過我們的預期(6.5 億元),同比增長 68%
99、88%;扣非歸母凈利潤為 6.57.4 億元,同比增長 77%102%。4Q23 單季度來看,取區間中間值測算,歸母凈利潤為 2.8 億元,同比增長 121%;扣非歸母凈利潤為 2.7億元,同比增長 136%??紤]到高速率產品需求的快速釋放,我們上調盈利預測,預計公司 20232025 年歸母凈利潤分別為 7.01/12.15/15.51 億元(前值:6.49/9.43/11.97 億元),可比公司 2024 年 Wind 一致預期 PE 均值為 27x,考慮到公司在光器件領域龍頭地位,以及高速率產品收入的快速釋放,給予公司 2024 年 40 xPE,對應目標價 123.12 元(前值:11
100、9.41 元),維持“買入”評級。風險提示:高速率產品需求不及預期;行業競爭加劇。報告發布日期:2024 年 01 月 21 日 點擊下載全文:天孚通信點擊下載全文:天孚通信(300394 CH,買入買入):業績超預期,高速率產品需求高增業績超預期,高速率產品需求高增 華工科技華工科技(000988 CH)盈利能力持續提升,驅動盈利能力持續提升,驅動 Q3 歸母凈利同比增長歸母凈利同比增長 45%根據公司三季報,公司 2023 前三季度營收/歸母凈利潤/扣非歸母凈利潤為 72.08/8.12/7.49 億元,分別同比-18.56%/+12.40%/+11.06%。3Q23 單季度公司營收/歸母
101、凈利潤/扣非歸母凈利潤分別為 21.84/2.30/2.04 億元,分別同比-17.06%/+44.74%/+41.00%,我們判斷 Q3 公司營收承壓或因小基站需求疲軟,業績同比增長主要系盈利能力的提升。我們維持 20232025 年歸母凈利潤預期分別為 10.93/14.17/18.09 億元,根據 Wind 一致預期,可比公司 2023 年 PE 均值為 30 x,考慮到公司全產業鏈布局的優勢,給予公司 2023 年 PE 32x,目標價 34.77 元/股(前值 39.15 元/股),維持“買入”評級。風險提示:光模塊海外市場拓展不及預期;激光加工技術在智能制造及新能源產業中拓展進展不
102、及預期;光通信行業競爭格局惡化。報告發布日期:2023 年 10 月 26 日 點擊下載全文:華工科技點擊下載全文:華工科技(000988 CH,買入買入):毛利率持續提升,毛利率持續提升,Q3 業績快速增長業績快速增長 太辰光太辰光(300570 CH)Q3 業績短期承壓,營收平穩增長業績短期承壓,營收平穩增長 根據公司三季報,公司前三季度營收/歸母凈利潤/扣非歸母凈利潤分別為 6.23/1.05/0.93 億元,分別同比下滑 11.45%/30.32%/36.05%;3Q23 單季度公司營收/歸母凈利潤/扣非歸母凈利潤分別為 2.33/0.33/0.29 億元,分別同比+2.26%/-39
103、.97%/-45.89%。我們認為公司 Q3 業績的同比下滑主要系公司毛利率的短期承壓,以及匯兌收益的同比下降??紤]到公司盈利能力的波動,我們下調公司 20232025 年歸母凈利潤預期分別至 1.50/2.06/2.57(前值:2.00/2.51/2.89)億元,可比公司 2024 年 Wind 一致預期 PE 均值為 36x,考慮到公司在密集連接產品行業領先地位,以及有望受益于 AI算力側基礎設施建設,給予公司 24 年 PE 41x,對應目標價 36.79 元(前值:46.90 元),維持“增持”評級。風險提示:新產品研發進度不及預期;下游市場需求不及預期。報告發布日期:2023 年 1
104、0 月 25 日 點擊下載全文:太辰光點擊下載全文:太辰光(300570 CH,增持增持):Q3 業績承壓,看好長期受益于業績承壓,看好長期受益于 AI 投資投資 資料來源:Bloomberg,華泰研究預測 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。26 科技科技 風險提示風險提示 1)全球 AI 算力側投入不及預期:以 ChatGPT 為代表的 AI 大模型快速發展,全球 AI 算力需求升級,帶來光模塊需求增長。若全球 AI 算力側投入不及預期,或導致光模塊需求不及預期,對光模塊廠商業績增長產生一定負面影響;2)光模塊行業競爭加?。弘S著 AI 大模型快速發展帶來算力升級,光
105、模塊下游需求持續增長,全球光模塊市場規模呈現較快發展態勢,若行業廠商競爭態勢加劇,或導致產品的銷售價格超預期下降,繼而對廠商銷售收入和利潤率產生一定負面影響。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。27 科技科技 免責免責聲明聲明 分析師聲明分析師聲明 本人,王興、高名垚,茲證明本報告所表達的觀點準確地反映了分析師對標的證券或發行人的個人意見;彼以往、現在或未來并無就其研究報告所提供的具體建議或所表迖的意見直接或間接收取任何報酬。一般聲明及披露一般聲明及披露 本報告由華泰證券股份有限公司(已具備中國證監會批準的證券投資咨詢業務資格,以下簡稱“本公司”)制作。本報告所載資料是
106、僅供接收人的嚴格保密資料。本報告僅供本公司及其客戶和其關聯機構使用。本公司不因接收人收到本報告而視其為客戶。本報告基于本公司認為可靠的、已公開的信息編制,但本公司及其關聯機構(以下統稱為“華泰”)對該等信息的準確性及完整性不作任何保證。本報告所載的意見、評估及預測僅反映報告發布當日的觀點和判斷。在不同時期,華泰可能會發出與本報告所載意見、評估及預測不一致的研究報告。同時,本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。以往表現并不能指引未來,未來回報并不能得到保證,并存在損失本金的可能。華泰不保證本報告所含信息保持在最新狀態。華泰對本報告所含信息可在不發出通知的情形下做出修改,投資
107、者應當自行關注相應的更新或修改。本公司不是 FINRA 的注冊會員,其研究分析師亦沒有注冊為 FINRA 的研究分析師/不具有 FINRA 分析師的注冊資格。華泰力求報告內容客觀、公正,但本報告所載的觀點、結論和建議僅供參考,不構成購買或出售所述證券的要約或招攬。該等觀點、建議并未考慮到個別投資者的具體投資目的、財務狀況以及特定需求,在任何時候均不構成對客戶私人投資建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素。對依據或者使用本報告所造成的一切后果,華泰及作者均不承擔任何法律責任。任何形式的分享證券投資收益或者分擔證券投資損失的書面或口頭
108、承諾均為無效。除非另行說明,本報告中所引用的關于業績的數據代表過往表現,過往的業績表現不應作為日后回報的預示。華泰不承諾也不保證任何預示的回報會得以實現,分析中所做的預測可能是基于相應的假設,任何假設的變化可能會顯著影響所預測的回報。華泰及作者在自身所知情的范圍內,與本報告所指的證券或投資標的不存在法律禁止的利害關系。在法律許可的情況下,華泰可能會持有報告中提到的公司所發行的證券頭寸并進行交易,為該公司提供投資銀行、財務顧問或者金融產品等相關服務或向該公司招攬業務。華泰的銷售人員、交易人員或其他專業人士可能會依據不同假設和標準、采用不同的分析方法而口頭或書面發表與本報告意見及建議不一致的市場評
109、論和/或交易觀點。華泰沒有將此意見及建議向報告所有接收者進行更新的義務。華泰的資產管理部門、自營部門以及其他投資業務部門可能獨立做出與本報告中的意見或建議不一致的投資決策。投資者應當考慮到華泰及/或其相關人員可能存在影響本報告觀點客觀性的潛在利益沖突。投資者請勿將本報告視為投資或其他決定的唯一信賴依據。有關該方面的具體披露請參照本報告尾部。本報告并非意圖發送、發布給在當地法律或監管規則下不允許向其發送、發布的機構或人員,也并非意圖發送、發布給因可得到、使用本報告的行為而使華泰違反或受制于當地法律或監管規則的機構或人員。本報告版權僅為本公司所有。未經本公司書面許可,任何機構或個人不得以翻版、復制
110、、發表、引用或再次分發他人(無論整份或部分)等任何形式侵犯本公司版權。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并需在使用前獲取獨立的法律意見,以確定該引用、刊發符合當地適用法規的要求,同時注明出處為“華泰證券研究所”,且不得對本報告進行任何有悖原意的引用、刪節和修改。本公司保留追究相關責任的權利。所有本報告中使用的商標、服務標記及標記均為本公司的商標、服務標記及標記。中國香港中國香港 本報告由華泰證券股份有限公司制作,在香港由華泰金融控股(香港)有限公司向符合證券及期貨條例及其附屬法律規定的機構投資者和專業投資者的客戶進行分發。華泰金融控股(香港)有限公司受香港證券及期貨事務監
111、察委員會監管,是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。在香港獲得本報告的人員若有任何有關本報告的問題,請與華泰金融控股(香港)有限公司聯系。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。28 科技科技 香港香港-重要監管披露重要監管披露 華泰金融控股(香港)有限公司的雇員或其關聯人士沒有擔任本報告中提及的公司或發行人的高級人員。中際旭創(300308 CH)、華工科技(000988 CH)、天孚通信(300394 CH):華泰金融控股(香港)有限公司、其子公司和/或其關聯公司實益持有標的公司的市場資本值的 1%或以上。有關重要的披露信息,請
112、參華泰金融控股(香港)有限公司的網頁 https:/.hk/stock_disclosure 其他信息請參見下方“美國“美國-重要監管披露”重要監管披露”。美國美國 在美國本報告由華泰證券(美國)有限公司向符合美國監管規定的機構投資者進行發表與分發。華泰證券(美國)有限公司是美國注冊經紀商和美國金融業監管局(FINRA)的注冊會員。對于其在美國分發的研究報告,華泰證券(美國)有限公司根據1934 年證券交易法(修訂版)第 15a-6 條規定以及美國證券交易委員會人員解釋,對本研究報告內容負責。華泰證券(美國)有限公司聯營公司的分析師不具有美國金融監管(FINRA)分析師的注冊資格,可能不屬于華
113、泰證券(美國)有限公司的關聯人員,因此可能不受 FINRA 關于分析師與標的公司溝通、公開露面和所持交易證券的限制。華泰證券(美國)有限公司是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。任何直接從華泰證券(美國)有限公司收到此報告并希望就本報告所述任何證券進行交易的人士,應通過華泰證券(美國)有限公司進行交易。美國美國-重要監管披露重要監管披露 分析師王興、高名垚本人及相關人士并不擔任本報告所提及的標的證券或發行人的高級人員、董事或顧問。分析師及相關人士與本報告所提及的標的證券或發行人并無任何相關財務利益。本披露中所提及的“相關人士”包括 FINRA定義下分析
114、師的家庭成員。分析師根據華泰證券的整體收入和盈利能力獲得薪酬,包括源自公司投資銀行業務的收入。中際旭創(300308 CH)、華工科技(000988 CH)、天孚通信(300394 CH):華泰證券股份有限公司、其子公司和/或其聯營公司實益持有標的公司某一類普通股證券的比例達 1%或以上。華泰證券股份有限公司、其子公司和/或其聯營公司,及/或不時會以自身或代理形式向客戶出售及購買華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)。華泰證券股份有限公司、其子公司和/或其聯營公司,及/或其高級管理層、董事和雇員可
115、能會持有本報告中所提到的任何證券(或任何相關投資)頭寸,并可能不時進行增持或減持該證券(或投資)。因此,投資者應該意識到可能存在利益沖突。評級說明評級說明 投資評級基于分析師對報告發布日后 6 至 12 個月內行業或公司回報潛力(含此期間的股息回報)相對基準表現的預期(A 股市場基準為滬深 300 指數,香港市場基準為恒生指數,美國市場基準為標普 500 指數),具體如下:行業評級行業評級 增持:增持:預計行業股票指數超越基準 中性:中性:預計行業股票指數基本與基準持平 減持:減持:預計行業股票指數明顯弱于基準 公司評級公司評級 買入:買入:預計股價超越基準 15%以上 增持:增持:預計股價超
116、越基準 5%15%持有:持有:預計股價相對基準波動在-15%5%之間 賣出:賣出:預計股價弱于基準 15%以上 暫停評級:暫停評級:已暫停評級、目標價及預測,以遵守適用法規及/或公司政策 無評級:無評級:股票不在常規研究覆蓋范圍內。投資者不應期待華泰提供該等證券及/或公司相關的持續或補充信息 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。29 科技科技 法律實體法律實體披露披露 中國中國:華泰證券股份有限公司具有中國證監會核準的“證券投資咨詢”業務資格,經營許可證編號為:91320000704041011J 香港香港:華泰金融控股(香港)有限公司具有香港證監會核準的“就證券提供意
117、見”業務資格,經營許可證編號為:AOK809 美國美國:華泰證券(美國)有限公司為美國金融業監管局(FINRA)成員,具有在美國開展經紀交易商業務的資格,經營業務許可編號為:CRD#:298809/SEC#:8-70231 華泰證券股份有限公司華泰證券股份有限公司 南京南京 北京北京 南京市建鄴區江東中路228號華泰證券廣場1號樓/郵政編碼:210019 北京市西城區太平橋大街豐盛胡同28號太平洋保險大廈A座18層/郵政編碼:100032 電話:86 25 83389999/傳真:86 25 83387521 電話:86 10 63211166/傳真:86 10 63211275 電子郵件:h
118、t- 電子郵件:ht- 深圳深圳 上海上海 深圳市福田區益田路5999號基金大廈10樓/郵政編碼:518017 上海市浦東新區東方路18號保利廣場E棟23樓/郵政編碼:200120 電話:86 755 82493932/傳真:86 755 82492062 電話:86 21 28972098/傳真:86 21 28972068 電子郵件:ht- 電子郵件:ht- 華泰金融控股(香港)有限公司華泰金融控股(香港)有限公司 香港中環皇后大道中 99 號中環中心 58 樓 5808-12 室 電話:+852-3658-6000/傳真:+852-2169-0770 電子郵件: http:/.hk 華泰證券華泰證券(美國美國)有限公司有限公司 美國紐約公園大道 280 號 21 樓東(紐約 10017)電話:+212-763-8160/傳真:+917-725-9702 電子郵件:Huataihtsc- http:/www.htsc- 版權所有2024年華泰證券股份有限公司