《2023年AI算力供需格局、產業發展現狀及前瞻分析報告.pdf》由會員分享,可在線閱讀,更多相關《2023年AI算力供需格局、產業發展現狀及前瞻分析報告.pdf(30頁珍藏版)》請在三個皮匠報告上搜索。
1、2023 年深度行業分析研究報告 目錄 目錄 一、產業概況.1 二、產業發展現狀.3 三、供需格局分析.5 四、AI 服務器產業格局.10 五、AI 芯片產業格局.12 六、產業瓶頸及突破路徑.17 七、產業鏈及相關企業.20 七、細分受益環節.24 八、產業發展前瞻.26 1/29 2/29 算力是人工智能三要素之一,已成為人工智能產業化進一步發展的關鍵。所謂算力,就是計算能力,是指對數據的處理能力,它被視為數字經濟時代的新生產力,是推動數字經濟發展的核心力量。其中,算力的大小代表著對數字化信息處理能力的強弱。從原始社會的手動式計算到古代的機械式計算、近現代的電子計算,再到現在的數字計算,算
2、力指代了人類對數據的處理能力,也集中代表了人類智慧的發展水平。伴隨著云計算技術和?5G 通信技術的發展,使得算力的分布和調度更加靈活,有助于滿足各種場景下對高性能計算的需求。未來隨著技術的進步和應用場景的不斷拓展,算力將繼續發揮重要作用,推動整個人工智能行業的創新和發展。2、算力:、算力:ChatGPT 發展的核心基礎底座發展的核心基礎底座ChatGPT 能夠實現當前如此強大的交互,離不開背后龐大的算力支撐能夠實現當前如此強大的交互,離不開背后龐大的算力支撐。根據綠色節能數據中心官方公眾號,ChatGPT 的總算力消耗約為?3640PF-days。按近期在國內落地的某數據中心為參照物,算力50
3、0P 耗資?30.2 億落成,若要支持?ChatGPT 的運行,需要?78 個這樣數據中心支撐,基礎設施投入需以百億計。因此,隨著?AI 等新技術的發展,對高可靠、高性能、高安全算力需求更加突出,全球正掀起一場算力的“軍備競賽”,數據中心、AI 芯片、服務器等環節作為算力基礎設施,有望被高度重視。3、AI 算力市場呈高速增長態勢,算力成為?算力市場呈高速增長態勢,算力成為?AI 突破的關鍵因素突破的關鍵因素數據、算力及算法是人工智能發展的三要素。在這三要素中,數據與算法都離不開算力的支撐。隨著?AI算法突飛猛進的發展,越來越多的模型訓練需要巨量算力支撐,才能快速有效實施,同時數據量的不斷增加也
4、要求算力配套進化。如此看來,算力成為?AI 突破的關鍵因素。ChatGPT 引發新一輪?引發新一輪?AI 算力需求爆發算力需求爆發。根據?OpenAI 發布的AIand Compute分析報告中指出,自?2012 年以來,AI 訓練應用的算力需求每?3-4 個月就會翻倍,從?2012 年至今,AI 算力增長超過了?30萬倍。據?OpenAI 報告,ChatGPT 的總算力消耗約為?3640PF-days(即假如每秒計算一千萬億次,需要計算?3640 天),需要?7-8 個算力?500P 的數據中心才能支撐運行。上海新興信息通信技術應用研究院首席專家賀仁龍表示,“自?2016 年阿爾法狗問世,智
5、能算力需求開啟爆發態勢。如今?ChatGPT 則代表新一輪?AI 算力需求的爆發”。1、相關概念、相關概念一、產業概況一、產業概況 5XbWiXlXbVmVuVrYrY8OdNaQsQrRsQtQiNrRnRlOrRsOaQmMxOvPoNuMNZnPmO 3/29 全球算力規模將呈現高速增長態勢全球算力規模將呈現高速增長態勢。根據國家數據資源調查報告數據,2021 年全球數據總產量 67ZB,近三年平均增速超過 26%,經中國信息通信研究院測算,2021 年全球計算設備算力總規模達到615EFlops,增速達 44%。根據中國信通院援引的 IDC 數據,2025 年全球算力整體規模將達330
6、0EFlops,2020-2025 年的年均復合增長率達到 50.4%。結合華為 GIV 預測,2030 年人類將迎來YB 數據時代,全球算力規模達到 56ZFlops,2025-2030 年復合增速達到 76.2%。4、算力需求攀升下,、算力需求攀升下,GPU 行業市場巨大行業市場巨大AIGC 模型硬件以 GPGPU 為主,GPU 市場規模有望在 2030 年超過 4000 億美元。GPU 在并行計算方面具有性能優勢,在 AI 領域分化成兩條分支:一條是傳統意義的 GPU,專門用于圖形圖像處理用途;另一條是 GPGPU,作為運算協處理器,增加了專用指令來滿足不同領域的計算需求。使用 GPGP
7、U 在云端進行模型訓練算法,能夠顯著縮短海量訓練數據的訓練時長,減少能源消耗,從而降低人工智能的應用成本,目前全球人工智能相關處理器解決方案仍以 GPGPU 為主。根據 Verified Market Research 報告,2021 年全球 GPU 芯片市場規模已經達到了 334.7 億美元,并預計到 2030 年將達到 4,773.7 億美元,CAGR 高達 33.3%。GPU 市場保持著高速增長態勢,其在人工智能領域中仍然是不可或缺的計算資源之一。二、產業發展現狀二、產業發展現狀 1、當前大模型的實現,需要強大的算力來支持訓練過程和推理過程、當前大模型的實現,需要強大的算力來支持訓練過程
8、和推理過程大模型的實現,需要十分強大的算力來支持訓練過程和推理過程大模型的實現,需要十分強大的算力來支持訓練過程和推理過程。根據 OPENAI 數據,訓練 GPT-3175B 的模型,需要的算力高達 3640PF-days。2018 年以來,大模型的參數量級已達到數千億參數的量級規模,對算力的需求將呈現指數級增長。4/29 2、AI 芯片性能提升,成為決定大模型從理論實踐到大規模應用的關鍵要素芯片性能提升,成為決定大模型從理論實踐到大規模應用的關鍵要素 根據COMPUTE TRENDS ACROSS THREE ERAS OF MACHINE LEARNING研究結果,AI 芯片的性能提升成為
9、決定大模型從理論實踐到大規模應用的關鍵要素。在供給端,AI 芯片廠商推出了性能越來越強的新產品來應對人工智能發展的算力需求。以英偉達英偉達為例,2020 年,英偉達推出了 A100 GPU 芯片,相比上一代 V100 GPU 芯片,A100 GPU 芯片性能大幅提升。針對大模型,A100 GPU 芯片相比 V100 GPU 芯片可提供高達 3 倍的訓練速度。3、大模型將為全球和中國、大模型將為全球和中國 AI 芯片和芯片和 AI 服務器市場的增長,提供強勁動力服務器市場的增長,提供強勁動力 隨著全球和中國人工智能廠商布局大模型,大模型將為全球和中國 AI 服務器市場的增長提供強勁動力。根據20
10、22 年北京人工智能產業發展白皮書數據,截至 2022 年 10 月,北京擁有人工智能核心企業1048 家,占我國人工智能核心企業總量的 29%。以此計算,我國人工智能核心企業總數約為 3614 家。5/29 假設其中有 2%的企業自建 IDC 訓練和推理大模型,那么單一企業自建 IDC 推理和訓練大模型的算力成本約為 4.78(4.03+0.75)億美元,以此估算,大模型將為我國 AI 服務器市場帶來約 345.50 億美元的市場空間。以 2021 年我國 AI 服務器市場規模占全球 AI 服務器市場規模的占比估算,則將為全球 AI 服務器市場帶來約 910.44 億美元的市場空間。市場空間
11、巨大,相關芯片和服務器廠商將深度受益此次ChatGPT 浪潮。三三、供需格局分析、供需格局分析 1、需求端:需求端:大算力消耗帶來大算力消耗帶來訓練成本上升訓練成本上升,算力霸權時代或將到來算力霸權時代或將到來 大算力消耗帶來訓練成本上升大算力消耗帶來訓練成本上升,訓練訓練 ChatGPT 需要使用大量算力資源需要使用大量算力資源。據微軟官網,微軟 Azure 為OpenAI 開發的超級計算機是一個單一系統,具有超過 28.5 萬個 CPU 核心、1 萬個 GPU 和 400GB/s 的GPU 服務器網絡傳輸帶寬。據英偉達,使用單個 Tesla 架構的 V100 GPU 對 1746 億參數的
12、 GPT-3 模型進行一次訓練,需要用 288 年時間。此外,算力資源的大量消耗,必然伴隨著算力成本的上升,據Lambda,使用訓練一次 1746 億參數的 GPT-3 模型,所需花費的算力成本超過 460 萬美元。雖然 GPT-3.5 在模型參數量上有了明顯下降,但考慮到 GPT-3、GPT-3.5 均為 OpenAI 獨家擁有,其他廠商復刻難度較高,巨量參數或仍將是模型開發過程的必經之路,我們預計未來大模型開發的算力成本仍將較高。模型算力需求增速超越芯片性能增速,算力霸權時代或將到來模型算力需求增速超越芯片性能增速,算力霸權時代或將到來。據 OpenAI 測算,自 2012 年以來,全球頭
13、部 AI 模型訓練算力需求 3-4 個月翻一番,每年頭部訓練模型所需算力增長幅度高達 10 倍。而摩爾定律認為,芯片計算性能大約每 18-24 個月翻一番。因此,AI 訓練模型算力需求增長與芯片計算性能增長之間的不匹配,或將帶來對算力基礎設施供給需求的快速增長??紤]到算力對于 AI 模型訓練效果的關鍵性作用,擁有更豐富算力資源的模型開發者,或將能夠訓練出更優秀的 AI 模型,算力霸權時代或將開啟。6/29 具體來看,具體來看,AI 大模型對于算力資源的需求主要體現在以下三類場景:大模型對于算力資源的需求主要體現在以下三類場景:(1)模型預訓練帶來的算力需求模型預訓練帶來的算力需求 模型預訓練過
14、程是消耗算力的最主要場景。ChatGPT 采用預訓練語言模型,核心思想是在利用標注數據之前,先利用無標注的數據,即純文本數據訓練模型,從而使模型能夠學到一些潛在的跟標注無關的知識,最終在具體的任務上,預訓練模型就可以利用大量的無標注數據知識。在 Transformer 的模型架構下,語言預訓練過程可以根據上下文一次處理所有輸入,實現大規模并行計算。通過堆疊多個解碼模塊,模型的層數規模也會隨著提升,可承載的參數量同步增長。與之相對應的,模型訓練所需要消耗的算力也就越大。預計預計訓練一次訓練一次 ChatGPT 模型需要的算力約模型需要的算力約 27.5PFlop/s-day。據 OpenAI 團
15、隊發表于 2020 年的論文Language Models are Few-Shot Learners,訓練一次 13 億參數的 GPT-3XL 模型需要的全部算力約為 27.5PFlop/s-day,訓練一次 1746 億參數的 GPT-3 模型需要的算力約為 3640PFlop/s-day??紤]到 ChatGPT 訓練所用的模型是基于 13 億參數的 GPT-3.5 模型微調而來,參數量與 GPT-3XL 模型接近,因此我們預計訓練所需算力約 27.5PFlop/s-day,即以 1 萬億次每秒的速度進行計算,需要耗時 27.5 天。7/29 (2)日常運營帶來的算力需求日常運營帶來的算力
16、需求 預計預計 ChatGPT 單月運營需要算力約單月運營需要算力約 4874.4PFlop/s-day,對應成本約,對應成本約 616 萬美元萬美元。在完成模型預訓練之后,ChatGPT 對于底層算力的需求并未結束,日常運營過程中,用戶交互帶來的數據處理需求,同樣也是一筆不小的算力開支。據 SimilarWeb 數據,2023 年 1 月 ChatGPT 官網總訪問量為 6.16 億次。據 Fortune 雜志,每次用戶與 ChatGPT 互動,產生的算力云服務成本約 0.01 美元?;诖?,我們測算得 2023 年 1 月 OpenAI 為 ChatGPT 支付的運營算力成本約 616 萬
17、美元。據上文,我們已知訓練一次 1746 億參數的 GPT-3 模型需要 3640PFlop/s-day 的算力及 460 萬美元的成本,假設單位算力成本固定,測算得 ChatGPT 單月運營所需算力約 4874.4PFlop/s-day。(3)Finetune 帶來的算力需求帶來的算力需求 8/29 模型調優帶來迭代算力需求模型調優帶來迭代算力需求。從模型迭代的角度來看,ChatGPT 模型并不是靜態的,而是需要不斷進行Finetune 模型調優,以確保模型處于最佳應用狀態。這一過程中,一方面是需要開發者對模型參數進行調整,確保輸出內容不是有害和失真的;另一方面,需要基于用戶反饋和 PPO
18、策略,對模型進行大規?;蛐∫幠5牡柧?。因此,模型調優同樣會為 OpenAI 帶來算力成本,具體算力需求和成本金額取決于模型的迭代速度。2、供給端:核心環節有望率先受益供給端:核心環節有望率先受益(1)算力芯片:算力芯片:AI 算力基石,需求有望大規模擴張算力基石,需求有望大規模擴張 GPU 架構更適合進行大規模架構更適合進行大規模 AI 并行計算,需求有望大規模擴張并行計算,需求有望大規模擴張。從 ChatGPT 模型計算方式來看,主要特征是采用了并行計算。對比上一代深度學習模型 RNN 來看,Transformer 架構下,AI 模型可以為輸入序列中的任何字符提供上下文,因此可以一次處理
19、所有輸入,而不是一次只處理一個詞,從而使得更大規模的參數計算成為可能。而從 GPU 的計算方式來看,由于 GPU 采用了數量眾多的計算單元和超長的流水線,因此其架構設計較 CPU 而言,更適合進行大吞吐量的 AI 并行計算?;诖?,我們認為,隨著大模型訓練需求逐步增長,下游廠商對于 GPU 先進算力及芯片數量的需求均有望提升。單一英偉達單一英偉達 V100 芯片進行一次芯片進行一次 ChatGPT 模型訓練,大約需要模型訓練,大約需要 220 天天。我們以 AI 訓練常用的 GPU產品NVIDIA V100 為例。V100 在設計之初,就定位于服務數據中心超大規模服務器。據英偉達官網,V100
20、 擁有 640 個 Tensor 內核,對比基于單路英特爾金牌 6240 的 CPU 服務器,可以實現 24 倍的性能提升??紤]到不同版本的 V100 芯片,在深度學習場景下計算性能存在差異,因此我們折中選擇NVLink 版本 V100(深度學習算力 125TFlops)來計算大模型訓練需求。據相關測算,我們已知訓練一次 ChatGPT 模型(13 億參數)需要的算力約 27.5PFlop/s-day,計算得若由單個 V100GPU 進行計算,需 220 天;若將計算需求平均分攤至 1 萬片 GPU,一次訓練所用時長則縮短至約 32 分鐘。(2)服務器:服務器:AI 服務器有望持續放量服務器有
21、望持續放量 ChatGPT 主要進行矩陣向量計算,主要進行矩陣向量計算,AI 服務器處理效率更高服務器處理效率更高。從 ChatGPT 模型結構來看,基于Transformer 架構,ChatGPT 模型采用注意力機制進行文本單詞權重賦值,并向前饋神經網絡輸出數值結果,這一過程需要進行大量向量及張量運算。而 AI 服務器中往往集成多個 AIGPU,AIGPU 通常支持 9/29 多重矩陣運算,例如卷積、池化和激活函數,以加速深度學習算法的運算。因此在人工智能場景下,AI服務器往往較 GPU 服務器計算效率更高,具備一定應用優勢。單臺服務器進行一次單臺服務器進行一次 ChatGPT 模型訓練所需
22、時間約為模型訓練所需時間約為 5.5 天天。我們以浪潮信息浪潮信息目前算力最強的服務器產品之一浪潮 NF5688M6 為例。NF5688M6 是浪潮為超大規模數據中心研發的 NVLink AI 服務器,支持 2 顆 Intel 最新的 Ice Lake CPU 和 8 顆 NVIDIA 最新的 NVSwitch 全互聯 A800GPU,單機可提供5 PFlops 的 AI 計算性能。我們已知訓練一次 ChatGPT 模型(13 億參數)需要的算力約 27.5PFlop/s-day,計算得若由單臺 NF5688M6 服務器進行計算,需 5.5 天。大模型訓練需求有望帶動大模型訓練需求有望帶動 A
23、I 服務器放量服務器放量。隨著大數據及云計算的增長帶來數據量的增加,對于 AI 智能服務器的需求明顯提高。據 IDC 數據,2021 年全球 AI 服務器市場規模為 156 億美元,預計到 2025 年全球 AI 服務器市場將達到 318 億美元,預計 22-25 年 CAGR 將達 19.5%。2021 年中國 AI 服務器行業市場規模為 350.3 億元,同比增長 68.6%,預計 22-25 年 CAGR 將達 19.0%。我們認為,隨著ChatGPT 持續火熱,國內廠商陸續布局 ChatGPT 類似產品,AI 服務器采購需求有望持續增長,市場規?;驅⑦M一步擴張。(3)數據中心:核心城市
24、集中算力缺口或將加劇數據中心:核心城市集中算力缺口或將加劇 IDC 算力服務是承接算力服務是承接 AI 計算需求的直接形式計算需求的直接形式。ChatGPT 的模型計算主要基于微軟的 Azure 云服務進行,本質上是借助微軟自有的 IDC 資源,在云端完成計算過程后,再將結果返回給 OpenAI??梢?,IDC 是承接人工智能計算任務的重要算力基礎設施之一,但并不是所有企業都需要自行搭建算力設施。從國內數據中心的業務形態來看,按照機房產權歸屬及建設方式的角度,可分為自建機房、租賃機房、承接大客戶定制化需求以及輕資產衍生模式四種。AI 訓練需求有望帶動訓練需求有望帶動 IDC 市場規??焖僭鲩L市場
25、規??焖僭鲩L。據中國信通院,2021 年國內 IDC 市場規模 1500.2 億元,同比增長 28.5%。隨著我國各地區、各行業數字化轉型深入推進、AI 訓練需求持續增長、智能終端實時計算需求增長,2022 年國內市場規模達 1900.7 億元,同增 26.7%。10/29 互聯網廠商布局互聯網廠商布局 ChatGPT 類似產品,或將加大核心城市類似產品,或將加大核心城市 IDC 算力供給缺口算力供給缺口。據艾瑞咨詢,2021 年國內 IDC 行業下游客戶占比中,互聯網廠商居首位,占比為 60%;其次為金融業,占比為 20%;政府機關占比 10%,位列第三。而目前國內布局 ChatGPT 類似
26、模型的企業,同樣以互聯網廠商為主,如百度百度宣布旗下大模型產品“文心一言”將于 2022 年 3 月內測、京東京東于 2023 年 2 月 10 日宣布推出產業版ChatGPT:ChatJD。另一方面,國內互聯網廠商大多聚集在北京、上海、深圳、杭州等國內核心城市,在可靠性、安全性及網絡延遲等性能要求下,或將加大對本地 IDC 算力需求,國內核心城市 IDC 算力供給缺口或將加大。四四、AI 服務器產業格局服務器產業格局 AI 服務器和 AI 芯片是算力發展中極為重要,同時也是企業爭相突破的環節,其發展狀況,對于整個人工智能行業的發展至關重要,以下我們就分別對 AI 芯片和 AI 服務器兩部分展
27、開分析。1、AI 服務器:人工智能發展核心算力底座服務器:人工智能發展核心算力底座,算力升級催化算力升級催化其其加速滲透加速滲透 AI 服務器是采用異構形式的服務器,如 CPU+GPU、CPU+TPU、CPU+其他的加速卡等。而普通的服務器是以 CPU 為算力的提供者,采用的是串行架構。在大數據、云計算、人工智能及物聯網等網絡技術的應用下,數據呈現幾何倍數的增長,CPU 的核心數已經接近極限,但數據還在持續增加,因此必須提升服務器的數據處理能力,AI 服務器應運而生。通常 AI 服務器需要承擔大量的計算,一般配置四塊以上的 GPU 卡。隨著數據及運算量提升,接口傳輸速度要求提升,對應 PCB
28、層數將增加、介電損耗降低且單價提升,端口數量增加亦將拉動以太網物理層芯片(PHY)的用量提升,CPU、GPU 供電使用的多相電源需求量大幅增加。在此基礎上,由于有多個 GPU 卡,需對系統結構、散熱、拓撲等進行設計,才能滿足 AI服務器長期穩定運行的要求。11/29 隨數據量提升,隨數據量提升,AI 服務器加速滲透,服務器加速滲透,22-26 年全球服務器市場復合增速近年全球服務器市場復合增速近 15%。根據 IDC 數據,2022 年全球 AI 相關支出 1193 億美元,同比增長 28.0%,其中 AI 硬件、AI 服務、AI 軟件支出占比分別為 20.4%、24.5%、55.1%;AI
29、硬件支出中,服務器、存儲器占比 83.2%、16.8%。根據 IDC 數據,2022 年全球 AI 服務器市場規模 202 億美元,同比增長 29.8%,占服務器市場規模的比例為 16.4%,同比提升 1.2pct。2022 年上半年全球 AI 服務器市場中,浪潮浪潮、戴爾戴爾、惠普惠普、聯想聯想、新華新華三三分別以 15.1%、14.1%、7.7%、5.6%、4.7%的市場份額位居前五位。IDC 預計 2026 年全球 AI 服務器市場規模將達到355 億美元,對應 22-26 年 CAGR 為 15.1%。2、國內國內 AI 服務器服務器呈現呈現一超多強一超多強的市場格局的市場格局 浪潮信
30、息占據全球浪潮信息占據全球 AI 服務器市場龍頭地位服務器市場龍頭地位。根據 IDC 統計,中國企業在全球 AI 服務器市場中所占份額持續提升。其中,2021 年浪潮信息浪潮信息市場份額約 20%,龍頭地位穩固;戴爾戴爾和 HPE 市占率分別達到13.8%、9.8%,排名分列第二、第三。國內國內 AI 服務器市場集中度高,呈現服務器市場集中度高,呈現“一超多強一超多強”的局面的局面。根據 IDC 統計,2021 年國內 AI 服務器排名前5 的廠商占據了超過 80%的市場份額。其中,浪潮信息浪潮信息的市占率遙遙領先,約 52%;寧暢寧暢、華為華為、新華新華三三市占率相近,略低于 8%,構成第二
31、梯隊;安擎安擎、寶德寶德分別為 6.8%、5.1%,緊隨其后。12/29 AI 服務器性能要求持續提升,產品不斷迭代服務器性能要求持續提升,產品不斷迭代。大規模 AI 計算模型,不僅僅對 AI 服務器的空間和算力提出了極高的要求,還在冷卻技術、算力資源調度和靈活性方面,推動著高性能、高技術水平產品的誕生。國內代表性企業推出的 AI 服務器產品,在 CPU 和 GPU 芯片性能、功率、計算平臺和擴展等關鍵指標上達到了較高水平,支持互聯網、數據庫、分布式存儲和加速計算等行業多樣化的應用場景。例如,浪潮信息浪潮信息的 NF5688M6 服務器是為超大規模數據中心專門研發,空間達到 6U,采用 GPU
32、:計算 IB:存儲 IB=8:8:2 的高性能配比,適用于對算力要求較高的大規模的模型訓練。五五、AI 芯片產業格局芯片產業格局 1、AI 芯片芯片提供算力提供算力基礎,國內基礎,國內外市場都將保持外市場都將保持快速增長快速增長 全球市場全球市場:全球人工智能技術發展逐漸成熟,數字化基礎設施不斷建設完善,推動全球人工智能芯片市場高速增長。IDC 全球范圍調研顯示,人工智能芯片搭載率(attachrate)將持續增高。根據 Tractica、寒武紀招股書相關數據,全球人工智能芯片 2022 年市場規模預計約 395 億美金,預計到 2025 年將達到 726 億美金,年復合增長率達到 22%。國
33、內市場國內市場:22-24 年復合增速有望達到 46%。隨著大數據的發展和計算能力的提升,根據寒武紀招股書,2022 年中國人工智能芯片市場規模預計達 368 億元,預計 2024 年市場規模將達到 785 億元,復合增速有望達到 46%。13/29 2021 年國內仍以 GPU 為主實現數據中心計算加速。根據 IDC 數據,2021 年中國人工智能芯片市場中,GPU 的市場占有率近 90%,ASIC,FPGA,NPU 等非 GPU 芯片市場占有率超過 10%。2、AI 芯片賦能算力基石,英偉達壟斷全球市場芯片賦能算力基石,英偉達壟斷全球市場 AI 算力芯片主要包括 GPU、FPGA,以及以
34、VPU、TPU 為代表的 ASIC 芯片。其中以 GPU 用量最大,據 IDC 數據,預計到 2025 年 GPU 仍將占據 AI 芯片 8 成市場份額。然而,相較傳統圖形 GPU,通用型算力 GPU 在芯片架構上縮減了圖形圖像顯示、渲染等功能實現,具有更優的計算能效比,因而被廣泛應用于人工智能模型訓練、推理領域。14/29 根據在網絡中的位置,AI 芯片可以分為云端 AI 芯片、邊緣和終端 AI 芯片;根據其在實踐中的目標,可分為訓練(training)芯片和推理(inference)芯片。云端主要部署高算力的 AI 訓練芯片和推理芯片,承擔訓練和推理任務,具體有智能數據分析、模型訓練任務和
35、部分對傳輸帶寬要求比高的推理任務;邊緣和終端主要部署推理芯片,承擔推理任務,需要獨立完成數據收集、環境感知、人機交互及部分推理決策控制任務。由于英偉英偉達達 GPU 產品線豐富、產品性能頂尖、開發生態成熟,目前全球 AI 算力芯片市場仍由英偉達壟斷。根據中國信通院的數據,2021 年 Q4 英偉達占據了全球 95.7%的 GPU 算力芯片市場份額,因此,英偉達數據中心業務營收增速可以較好地反應全球 AI 芯片市場增速。2023 財年,英偉達數據中心營收達到 150 億美元,同比增長 41%,FY2017-FY2023 復合增速達 63%,表明全球 AI 芯片市場規模保持高速增長。3、性能與生態
36、構筑性能與生態構筑 AI 算力芯片高壁壘算力芯片高壁壘 評價 AI 芯片的指標主要包括算力、功耗、面積、精度、可擴展性等,其中算力、功耗、面積(PPA)是評價 AI 芯片性能的核心指標:算力算力:衡量 AI 芯片算力大小的常用單位為 TOPS 或者 TFLOS,兩者分別代表芯片每秒能進行多少萬億次定點運算和浮點運算,運算數據的類型通常有整型 8 比特(INT8)、單精度 32 比特(FP32)等。AI 芯片的算力越高,代表它的運算速度越快、性能越強。功耗功耗:功耗即芯片運行所需的功率,除了功耗本身,性能功耗比是綜合衡量芯片算力和功耗的關鍵指標,它代表每瓦功耗對應輸出算力的大小。面積面積:芯片的
37、面積是成本的決定性因素之一,通常來講相同工藝制程之下,芯片面積越小良率越高,芯片成本越低。此外,單位芯片面積能提供的算力大小,亦是衡量 AI 芯片成本的關鍵指標之一。除 PPA 之外,運行在 AI 芯片上的算法輸出精度、AI 應用部署的可擴展性與靈活性,均為衡量 AI 芯片性能的指標。15/29 英偉達的 GPGPU 是全球應用最為廣泛的 AI 芯片,決定其性能的硬件參數主要包括:微架構、制程、CUDA 核數、Tensor 核數、頻率、顯存容量、顯存帶寬等。其中,微架構即 GPU 的硬件電路設計構造的方式,不同的微架構決定了 GPU 的不同性能,作為英偉達 GPU 的典型代表,V100、A10
38、0、H100 GPU 分別采用 Volta、Ampere、Hopper 架構;CUDA 核是 GPU 內部主要的計算單元;Tensor 核是進行張量核加速、卷積和遞歸神經網絡加速的計算單元;顯存容量和帶寬是決定 GPU 與存儲器數據交互速度的重要指標。除除 GPU 硬件之外,與之配套的軟件開發體系亦是生態的重要組成部分硬件之外,與之配套的軟件開發體系亦是生態的重要組成部分。GPU 的生態包括底層硬件、指令集架構、編譯器、API、基礎庫、頂層算法框架和模型等,英偉達于 2006 年發布的 CUDA 平臺是當今全球應用最為廣泛的 AI 開發生態系統。通用 GPU 與 CUDA 組成的軟硬件底座構成
39、了英偉達引領 AI計算的根基,當前全球主流深度學習框架均使用 CUDA 平臺。16/29 生態構建計算壁壘,國產生態構建計算壁壘,國產 GPU 廠商初期兼容廠商初期兼容 CUDA,長期仍需構筑自身軟硬件生態,長期仍需構筑自身軟硬件生態。由于當前全球主流深度學習框架均使用 CUDA 平臺進行開發,國產 GPU 可以通過兼容 CUDA 的部分功能,快速打開市場,減少開發難度和用戶移植成本。然而,CUDA 本身涵蓋功能非常廣泛,且許多功能與英偉達GPU 硬件深度耦合,包含了許多英偉達 GPU 的專有特性,這些特性并不能在國產 AI 芯片上全部體現。因此,長期來看國產 GPU 廠商仍需通過提升自身的軟
40、硬件實力,構筑屬于自己的軟硬件生態。4、國產國產 AI 算力芯片算力芯片正起星星之火正起星星之火 全球全球 AI 芯片市場被英偉達壟斷,然而國產芯片市場被英偉達壟斷,然而國產 AI 算力芯片正起星星之火算力芯片正起星星之火。目前,國內已涌現出了如寒武寒武紀紀、海光信息海光信息等優質的 AI 算力芯片上市公司,非上市 AI 算力芯片公司如沐曦沐曦、天數智芯天數智芯、壁仞科技壁仞科技等亦在產品端有持續突破。5、自主可控受高度重視,國產自主可控受高度重視,國產 AI 算力芯片迎算力芯片迎“芯芯“機遇機遇 加快實現高水平科技自立自強,是推動高質量發展的必由之路。結合前期數字中國建設規劃落地、浪潮浪潮集
41、團集團被美國商務部列入”實體清單“等事件,我們認為,國產 AI 算力芯片迎來發展“芯“機遇,自主可控亟待加速。17/29 自主可控受高度重視,高水平科技亟需自立自主可控受高度重視,高水平科技亟需自立自強自強。國家相關部門在“兩會”期間組建國家數據局,負責統籌推進數字經濟發展、推進數據基礎設施布局建設等任務,有望加速推進數字中國建設落地;重組科技部,并組建中央科技委員會,亦有望加速推動國內高水平科技實現自立自強。AI 算力芯片作為數字中國的算力基礎,國產突破勢在必行,國產 AI 算力芯片迎來發展”芯“機遇。數字中國建設對數字中國建設對 AI 芯片國產化提出新要求芯片國產化提出新要求。在 2 月
42、27 日印發的數字中國建設整體布局規劃中,提出要夯實數字基礎設施和數據資源體系“兩大基礎”,我們認為,數字中國基礎設施的建設有望拉動以數據中心、超算中心、智能計算中心為代表的算力基礎設施建設,從而帶動服務器與 AI 算力芯片的需求快速增長。同時,規劃提出要構筑自立自強的數字技術創新體系,上游 AI 芯片作為算力基礎,自主可控需求凸顯,數字中國建設對 AI 芯片國產化提出新要求。浪潮集團被列入浪潮集團被列入“實體清單實體清單“,AI 芯片國產化進程有望加速芯片國產化進程有望加速。當地時間 3 月 2 日,美國商務部將浪潮集浪潮集團團、龍芯中科龍芯中科等 37 個實體列入“實體清單“,擴大對浪潮等
43、中國企業的出口禁令。浪潮集團等公司被列入“實體清單”,再度敲響了中國 AI 產業發展的警鐘,我們不但要加大數字基礎設施建設,AI 算力芯片的自主可控推進也勢在必行。六六、產業瓶頸及突破路徑產業瓶頸及突破路徑 1、算力是制約中國發展大模型的主要瓶頸算力是制約中國發展大模型的主要瓶頸 算力是制約中國發展以算力是制約中國發展以 ChatGPT 為代表的大模型主要瓶頸之一為代表的大模型主要瓶頸之一。據 OpenAI,大模型訓練所需算力每3-4 個月增長 1 倍,增速遠超摩爾定律(18-24 個月/倍)。隨著 GPT-4 等下一代大模型出現,算力需求還有望進一步大幅增長。當前美國對華出口限制,主要造成中
44、國先進工藝發展短期受限,國產替代方案或推高大模型訓練成本/時間兩大影響。(1)先進工藝對提升芯片性能至關重要,中國先進工藝對提升芯片性能至關重要,中國大陸發展短期受限大陸發展短期受限 發展先進制程意義在于持續提升晶體管密度,提升芯片性能發展先進制程意義在于持續提升晶體管密度,提升芯片性能,降低功耗降低功耗。根據 WikiChip,臺積電 5nm芯片每平方毫米晶體管數量是 10nm3.3 倍,16nm5.9 倍,3nm 晶體管密度有望比 5nm 提升 70%,性能提升 11%,功耗降低 27%。美國限制 16/14nm 及以下先進邏輯工藝技術及設備向中國出口,對中國先進制程短期發展造成較大阻力。
45、進入 3nm 制程以下,目前主流 FinFET 將走向物理極限,GAAFET 將成為主流技術,但美國對中國禁售相關 EDA 軟件。同時,荷蘭 EUV 及先進 DUV 光刻設備目前均無法對中國出口。(2)A100 進口限制阻礙大模型發展,國內替代方案或推高成本進口限制阻礙大模型發展,國內替代方案或推高成本 22 年 8 月美國限制英偉達、AMD 對華出口高端 GPU 芯片,盡管后來有替代版本 A800 推出,但由于對高速互聯總線的帶寬做部分裁剪,在使用性能和功耗上面仍與 A100 有部分差距。目前 H100 性能是A100 的 4.5 倍,而 A800 理論性能相比 A100 降低約 1/3,隨
46、著算力需求不斷增加,國內由于 A100 以上芯片的進口限制,導致大模型訓練時間/成本或顯著提升,客觀上阻礙了我國大模型的發展。因中國企業進行 14nm 以下半導體代工,受到技術及設備限制,及美國限制海外代工企業為中國設計企業生產性能超過 A100 的芯片,短期內,中國芯片公司能夠生產超過 A100 的 AI 芯片的難度也較高。2、突破路徑、突破路徑 18/29 (1)異構計算:后摩爾時代,加速實現能源效率提升異構計算:后摩爾時代,加速實現能源效率提升 異構集合助推全球計算芯片快速發展異構集合助推全球計算芯片快速發展。異構計算從后端制造創新出發,充分利用計算資源的并行和分布計算技術,將不同制程和
47、架構、不同指令集、不同功能硬件進行組合,成為解決算力瓶頸更為經濟的一種方式。目前比較常見 AI 芯片異構有以英偉達 Grace Hopper 為代表的 CPU+GPU 路線,以 Waymo 為代表的 CPU+FPGA 路線以及以 Mobileye EyeQ5 芯片和地平線征程系列為代表的 CPU+ASIC 路線?;乇芟冗M制程瓶頸,回避先進制程瓶頸,AMD 異構集合計算另辟蹊徑帶來算力突破異構集合計算另辟蹊徑帶來算力突破。2011 年 AMD 率先推出 APU(Accelerated Processing Unit,加速處理器)產品,將中央處理器和獨顯核心做在一個晶片上,同時具有高性能處理器和最
48、新獨立顯卡的處理性能。在 CPU+GPU 的異構技術路線上,AMD 相關產品為軟件開發者帶來前所未有的靈活性,能夠任意采用最適合的方式開發新的應用。目前最新的 AMD MI200系列加速器采用多種解決方案,包括 ATOS Bull Sequana X410-A52U1N2S(雙 CPU+四 GPU)、戴爾PowerEdge R7525(雙 CPU+三 GPU)、技嘉 G262-Z00(雙 CPU+四 GPU)、HPE Cray EX235a(單 CPU+四 GPU)等。19/29 從從 MI250 到到 MI300:異構:異構+先進封裝先進封裝+工藝合力推進計算效率提升工藝合力推進計算效率提升
49、。MI250 加速器是 AMD 第一款ExaScale 百億億次(10 的 18 次方)級別加速卡產品。在芯片架構方面,MI250 由 6nmGPU 組成,并采用三種創新架構提升芯片加速性能:針對高性能計算和 AI 訓練等特殊領域做了性能的加強;采用Chiplet 級封裝,使得存儲芯片更接近于計算芯片;采用傳統的電源管理等芯片來優化能源效率。通過創新的架構,MI250 實現了 HPC 和 AI 節點的工作效率 12 倍的提升。而 MI300 則采用更為先進的5nm 工藝制程,并在架構方面實現了全方位的升級:采用底部堆疊晶圓與緩存、頂部堆疊 CPU 與 GPU的 3D 封裝技術;在 CPU 與
50、GPU 之間采用統一的存儲架構來存取數據,解決傳統 CPU+GPU 集成面臨緩存數據無法共享的問題,大大提升運算效率?;诩軜嫷膭撔?、Chiplet 以及 3D 封裝技術,AMDMI300 相較于 MI250 實現芯片性能與能效 8x/5x 的提升,其提升速度大幅領先于業界平均水平。國內多核異構計算正當時,目前用在數據中心、自動駕駛偏多國內多核異構計算正當時,目前用在數據中心、自動駕駛偏多。目前國內從事異構計算相關領域的芯片公司包括寒武紀寒武紀、海思海思、芯動科技芯動科技、燧原科技燧原科技、天數智芯天數智芯、中科馭數中科馭數、云豹智能云豹智能等,除數據中心外,異構計算還多用于智能駕駛領域。面向
51、 L3 級及以上等級自動駕駛車輛,單一芯片難以滿足諸多接口和算力需求,需采用多核異構計算芯片。目前主流的自動駕駛芯片架構有“CPU+GPU+ASIC”、“CPU+FPGA”和“CPU+ASIC”三種,是針對汽車自動駕駛等級提升帶來數據體量快速膨脹的重要可行解決方案,國內廠商包括華為華為、地平線地平線等。(2)先進封裝:助力超越摩爾定律,國內公司積極布局先進封裝:助力超越摩爾定律,國內公司積極布局 2.5/3D 等領域等領域 產業將從產業將從 2.5D 逐步走向逐步走向 3D 封裝,先進封裝助力高性能計算芯片實現超越摩爾定律封裝,先進封裝助力高性能計算芯片實現超越摩爾定律。高性能計算領域,先進封
52、裝是超越摩爾定律的一項重要路徑,其能提供更高的系統集成度與芯片連接密度,芯片系統將持續實現性能提升,同時兼顧功耗和面積。目前行業正從芯片/Chiplet 在平面上通過中介層、硅橋、高密度 RDL 等方式連接的 2.5D 封裝,逐步走向把存儲、計算芯片在垂直維度進行堆疊的 3D 封裝。我們看到 2.5D/3D 封裝領域主要方案提供者為:臺積電臺積電(3D Fabric 平臺),英特爾英特爾(EMIB/Foveros)、三三星星(3DTSV/X-Cube)、日月光日月光(VIPack)等。20/29 長電科技等國內公司已在量產長電科技等國內公司已在量產 2.5D 封裝領域實現初步突破,未來將逐步進
53、入封裝領域實現初步突破,未來將逐步進入 3D 封裝領域封裝領域。2.5/3D 封裝核心在于以微小線寬距和微小中心距的微凸點為特點的高密度中介層互聯,包括 TSV(硅通孔)、RDL(重布線堆疊)、FO interposer(扇出型中介)、嵌入式芯片基板。我們看到國內公司正在相關技術方面取得初步突破。長電科技 2022 年已突破帶 2.5D 硅通孔 MCM 的大尺寸 FCBGA 技術,并進入小量產。未來其有望在 2.5D 封裝領域逐步成熟,并走向 3D 封裝領域。通富微電多層堆疊 NAND Flash及 LPDDR 封裝實現穩定量產,并于 2022 年完成基于 TSV 技術的 3D SDRAM 封
54、裝開發。設備方面,封裝設備國產替代空間廣闊,測試設備長期受益于設備方面,封裝設備國產替代空間廣闊,測試設備長期受益于 Chiplet 等趨勢等趨勢。當前后道封裝設備主要由 Besi、Disco、K&S 等公司占據,國產化率較低。我們看到光力科技光力科技子公司 ADT、LP 及 LPB 可提供涵蓋傳統封裝及先進封裝領域的劃片機產品,大族激光可提供半導體激光切割設備。此外,Chiplet 技術可將不同工藝的小芯片集成,提升芯片系統的良率及降低成本,正在成為行業趨勢。我們認為未來成熟的 Chiplet 替代傳統 SoC 方案,或將提升模擬、數?;旌系葴y試機需求,華峰測控華峰測控在積極布局。七七、產業
55、鏈及相關企業產業鏈及相關企業 1、產業鏈概況、產業鏈概況 目前,我國算力產業鏈已經初步形成,涵蓋由設施、設備、軟件供應商、網絡運營商構成的上游產業,由基礎電信企業、第三方數據中心服務商、云計算廠商構成的中游產業,由互聯網企業、工業企業以及政府、金融、電力等各行業用戶構成的下游產業。當前,算力產業主要包含云計算、IDC、人工智能等細分產業;通信產業主要包括基站、接入網和核心網等細分產業。隨著信息通信技術從云網融合向算網一體邁進,算力和網絡產業的邊界日益模糊,形成以“算+網+協同”為主線的算力網絡產業格局,上游為底層硬件基礎設施,中游為算力網絡相關平臺、服務及關鍵技術,下游為賦能的應用場景及最終用
56、戶,產業鏈關鍵環節如下圖所示。21/29 2、相關分析、相關分析 當前,我國算力供給水平大幅提升,先進計算創新成果涌現。算力產業加速壯大升級,我國已經形成體系較完整、規模體量龐大、創新活躍的計算產業,在全球產業分工體系中的重要性日益提升。我國計算產業規模約占電子信息制造業的 20%,規模以上企業達 2300 余家。整個產業鏈來看,運營商涉及算力網絡產業鏈上、中、下游多個環節,已在網絡領域擁有不可復制的業務優勢,因此站在運營商視角,算力網絡建設的核心在于“泛在高品質的算力”和“靈活強協同的調度”。海量數據集中化處理、分布化計算需求爆發式增長,數據中心和邊緣計算行業是實現泛在高品質算力的關鍵;算網
57、業務的實現需要算力和網絡以一體化形態對外提供服務,具備智能化編排管理能力的算網大腦是支撐靈活強協同調度的核心。我國算力賦能效應不斷激發,智改數轉進入縱深發展。算力深度融入互聯網、電信、金融、制造等下游行業,為各行業各領域的智能化改造和數字化轉型提供支撐。算力助推信息消費持續擴大升級,虛擬現實與元宇宙有望成為推動算力下一個增長階段的驅動力。數字經濟時代,算力不僅是關鍵生產力,也將成為普遍應用。隨著算力基礎設施建設的推進,算力應用的新模式、新業態正加速涌現,算力深度融入制造、交通、教育、航空航天、金融、傳媒等更多行業,同時,算力調度、算力管理、算力交易也成為業界探索的重點。2022 年 3 月,工
58、業和信息化部正式公布首批國家新型數據中心典型案例名單,共有 32 個大型以上數據中心和 12 個邊緣數據中心入選。3、重點重點公司公司梳理梳理(1)戴爾:全球服務器龍頭,提供完整戴爾:全球服務器龍頭,提供完整 AI 架構與架構與方案方案 戴爾以生產、設計、銷售家用以及辦公室電腦而聞名,生產與銷售服務器、數據儲存設備、網絡設備等。2016 年 9 月,EMC Corporation 和戴爾公司合并,新公司將被命名為戴爾科技(Dell Technologies)。新公司營業重點將轉向云服務,并推進服務器及存儲領域整合。22/29 戴爾科技集團可以提供完整的戴爾科技集團可以提供完整的 AI 基礎架構
59、、基礎架構、AI 平臺就緒解決方案和平臺就緒解決方案和 AI 行業應用行業應用。AI 基礎架構包括高性能 AI 訓練服務器、AI 推理服務器、AI 邊緣計算、高性能 AI 存儲系統 PowerScale、DPS 數據保護解決方案和數據中心網絡。AI 平臺就緒解決方案則包括基于 CPU、IPU、GPU 的 AI 就緒解決方案,GPU分布式訓練自動化實現,Graphcore IPUAI 專用芯片,NVAIE,GPU 虛擬化,AIaaS 平臺和 OMNIA 開源社區。(2)浪潮:浪潮:AI 服務器市占率穩居榜首服務器市占率穩居榜首 浪潮信息是全球領先的新型浪潮信息是全球領先的新型 IT 基礎架構產品
60、、方案及服務提供商基礎架構產品、方案及服務提供商。公司是全球領先的 AI 基礎設施供應商,擁有業內最全的人工智能計算全堆棧解決方案,涉及訓練、推理、邊緣等全棧 AI 場景,構建起領先的 AI 算法模型、AI 框架優化、AI 開發管理和應用優化等全棧 AI 能力,為智慧時代提供堅實的基礎設施支撐。生產算力方面生產算力方面,公司擁有業內最強最全的 AI 計算產品陣列,業界性能最好的 Transformer 訓練服務器NF5488、全球首個 AI 開放加速計算系統 MX1、自研 AI 大模型計算框架 LMS。聚合算力層面聚合算力層面,公司針對高并發訓練推理集群進行架構優化,構建了高性能的 NVMe
61、存儲池,深度優化了軟件棧,性能提升3.5 倍以上。調度算力層面調度算力層面,浪潮信息 AIstation 計算資源平臺可支持 AI 訓練和推理,是業界功能最全的 AI 管理平臺;同時,浪潮信息還有自動機器學習平臺 AutoML Suite,可實現自動建模,加速產業化應用。(3)中科曙光:我國高性能計算、智能計算領軍企業中科曙光:我國高性能計算、智能計算領軍企業 中科曙光作為我國核心信息基礎設施領軍企業中科曙光作為我國核心信息基礎設施領軍企業,在高端計算、存儲、安全、數據中心等領域擁有深厚的技術積淀和領先的市場份額,并充分發揮高端計算優勢,布局智能計算、云計算、大數據等領域的技術研發,打造計算產
62、業生態,為科研探索創新、行業信息化建設、產業轉型升級、數字經濟發展提供了堅實可信的支撐。23/29 依托先進計算領域的先發優勢和技術細節,中科曙光全面布局智能計算依托先進計算領域的先發優勢和技術細節,中科曙光全面布局智能計算,完成了包括 AI 核心組件、人工智能服務器、人工智能管理平臺、軟件等多項創新,構建了完整的 AI 計算服務體系。并積極響應時代需求,在智能計算中心建設浪潮下,形成了 5A 級智能計算中心整體方案。目前,曙光 5A 智能計算中心已在廣東、安徽、浙江等地建成,江蘇、湖北、湖南等地已進入建設階段,其他地區也在緊張籌備和規劃中。(4)海光信息:支持全精度,海光信息:支持全精度,G
63、PU 實現規模量產實現規模量產 海光信息主要從事高端處理器、加速器等計算芯片產品和系統的研究、開發,主要產品包括海光 CPU和海光 DCU。2018 年 10 月,公司啟動深算一號 DCU 產品設計,海光 8100 采用先進的 FinFET 工藝,典型應用場景下性能指標可以達到國際同類型高端產品的同期水平。2020 年 1 月,公司啟動 DCU 深算二號的產品研發。海光海光 DCU 性能強大性能強大。海光 DCU 基于大規模并行計算微結構進行設計,不但具備強大的雙精度浮點計算能力,同時在單精度、半精度、整型計算方面表現同樣優異,是一款計算性能強大、能效比較高的通用協處理器。海光 DCU 集成片
64、上高帶寬內存芯片,可以在大規模數據計算過程中提供優異的數據處理能力。(5)華為海思:五大系列發揮產業集成優勢華為海思:五大系列發揮產業集成優勢 海思是全球領先的海思是全球領先的 Fabless 半導體與器件設計公司半導體與器件設計公司。前身為華為集成電路設計中心,1991 年啟動集成電路設計及研發業務,為匯聚行業人才、發揮產業集成優勢,2004 年注冊成立實體公司,提供海思芯片對外銷售及服務。海思致力于為智慧城市、智慧家庭、智慧出行等多場景智能終端打造性能領先、安全可靠的半導體基石,服務于千行百業客戶及開發者。海思產品覆蓋智慧視覺、智慧 IoT、智慧媒體、智慧出行、顯示交互、手機終端、數據中心
65、及光收發器等多個領域。海思半導體旗下的芯片共有五大系列海思半導體旗下的芯片共有五大系列,分別是用于智能設備的麒麟 Kirin 系列;用于數據中心的鯤鵬Kunpeng 系列服務 CPU;用于人工智能的場景 AI 芯片組昇騰 Ascend 系列 SoC;用于連接芯片(基站 24/29 芯片 Tiangang、終端芯片巴龍 Balong);以及其他專用芯片(視頻監控、機頂盒芯片、智能電視、運動相機、物聯網等芯片)。(6)寒武紀:少數全面掌握寒武紀:少數全面掌握 AI 芯片技術的企業之一芯片技術的企業之一 寒武紀主營業務是應用于各類云服務器、邊緣計算設備、終端設備中人工智能核心芯片的研發和銷售。公司的
66、主要產品包括終端智能處理器 IP、云端智能芯片及加速卡、邊緣智能芯片及加速卡以及與上述產品配套的基礎系統軟件平臺。寒武紀是目前國際上少數幾家全面系統掌握了通用型智能芯片及其基礎系統軟件研發和產品化核心技術的企業之一,能提供云邊端一體、軟硬件協同、訓練推理融合、具備統一生態的系列化智能芯片產品和平臺化基礎系統軟件。2022 年 3 月,寒武紀正式發布了新款訓練加速卡“MLU370-X8”,搭載雙芯片四芯粒封裝的思元 370,集成寒武紀 MLU-Link 多芯互聯技術,主要面向 AI 訓練任務。七、細分受益環節七、細分受益環節 GPT-4 多模態大模型將引領新一輪 AI 算力需求的爆發,超大規模數
67、據中心及超算數據中心作為泛 AI 領域的重要基礎設施支持,其數量、規模都將相應增長,帶動整個算力基礎設施產業鏈(如高端服務器/交換機、CPO 技術、硅光、液冷技術)的滲透加速。同時在應用側,Copilot 的推出也將加速 AI 在辦公領域的賦能,給相關細分環節帶來發展機會。以下我們具體分析依托 AI 算力發展帶來的細分受益環節。1、服務器、服務器/交換機交換機 算力需求帶動上游硬件設備市場規模持續增長,高規格產品占比提升算力需求帶動上游硬件設備市場規模持續增長,高規格產品占比提升。伴隨著數據流量持續提升,交換機作為數據中心必要設備,預計全球數據中心交換機保持穩定增長。2021 年全球數據中心交
68、換機市場規模為 138 億美元,預計到 2031 年將達 246 億美元,2022 年至 2031 年復合年增長率為 5.9%。多元 25/29 開放的 AI 服務器架構可以為人工智能發展提供更高的性能和可擴展性的 AI 算力支撐,隨著 AI 應用的發展,高性能服務器數量有望隨之增長,帶動出貨量及服務器單價相應提升。根據 IDC 報告,2022Q3,200/400GbE 交換機市場收入環比增長 25.2%,100GbE 交換機收入同比增長 19.8%,高速部分呈現快速增長。2、光模塊、光模塊/光芯片光芯片 算力需求提升推動算力基礎設施升級迭代,傳統可插拔光模塊技術弊端和瓶頸開始顯現算力需求提升
69、推動算力基礎設施升級迭代,傳統可插拔光模塊技術弊端和瓶頸開始顯現。首先,功耗過高,AI 技術的加速落地,使得數據中心面臨更大的算力和網絡流量壓力,交換機、光模塊等網絡設備升級的同時,功耗增長過快。以博通博通交換機芯片為例,2010 年到 2022 年交換機芯片速率從 640G 提升到51.2T,光模塊速率從 10G 迭代到 800G。速率提升的同時,交換機芯片功耗提升了約 8 倍,光模塊功耗提升了 26 倍,SerDes 功耗提升了 25 倍。其次,交換機端口密度難以繼續提升,光模塊速率提升的同時,自身體積也在增大,而交換機光模塊端口數量有限。另外,PCB 材料也遭遇瓶頸,PCB 用于傳輸高速
70、電信號,傳統可插拔光模塊信號傳輸距離長、傳輸損失大,更低耗損的可量產 PCB 材料面臨技術難題難以攻克。NPO/CPO 技術有望成為高算力背景下的解決方案技術有望成為高算力背景下的解決方案。CPO(光電共封裝技術)是一種新型的高密度光組件技術,將交換芯片和光引擎共同裝配在同一個 Socketed(插槽)上,形成芯片和模組的共封裝。CPO 可以取代傳統的插拔式光模塊技術,將硅光電組件與電子晶片封裝相結合,從而使引擎盡量靠近ASIC,降低 SerDes 的驅動功耗成本,減少高速電通道損耗和阻抗不連續性,實現更高密度的高速端口,提升帶寬密度,大幅減少功耗。CPO 技術的特點主要有:CPO 技術縮短了
71、交換芯片和光引擎之間的距離(控制在 57cm),使得高速電信號在兩者之間實現高質量傳輸,滿足系統的誤碼率(BER)要求;CPO 用光纖配線架取代更大體積的可插拔模塊,系統集成度得到提升,實現更高密度的高速端口,提升整機的帶寬密度;降低功耗,根據銳捷網絡招股說明書,采用 CPO 技術的設備整機相比于采用可插拔光模塊技術的設備,整機功耗降低 23%。高高算力背景下,數據中心網絡架構升級帶動光模塊用量擴張及向更高速率算力背景下,數據中心網絡架構升級帶動光模塊用量擴張及向更高速率迭代迭代。硅光、相干及光電共封裝技術(CPO)等具備高成本效益、高能效、低能耗的特點,被認為是高算力背景下的解決方案。CPO
72、將硅光電組件與電子晶片封裝相結合,使引擎盡量靠近 ASIC,減少高速電通道損耗,實現遠距離傳送。目前,頭部網絡設備和芯片廠商已開始布局硅光、CPO 相關技術與產品。3、數據中心、數據中心 IDC 數據中心數據中心:“東數西算”工程正式全面啟動一周年,從系統布局進入全面建設階段。隨著全國一體化算力網絡國家樞紐節點的部署和“東數西算”工程的推進,算力集聚效應初步顯現,算力向規?;s化方向加速升級,同時數據中心集中東部的局面得到改善,西部地區對東部地區數據計算需求的支撐作用越發明顯。我們認為政策面推動供給側不斷出清,AI 等應用將帶動新一輪流量需求,有望打破數據中心近兩年供給過剩的局面,帶動數據中
73、心長期發展。液冷溫控液冷溫控:隨云計算、AI、超算等應用發展,數據中心機柜平均功率密度數預計將逐年提升,高密度服務器也將被更廣泛的應用于數據中心中。數據中心液冷技術能夠穩定 CPU 溫度,保障 CPU 在一定范圍內進行超頻工作不會出現過熱故障,有效提升了服務器的使用效率和穩定性,有助于提高數據中心單位空間的服務器密度,大幅提升數據中心運算效率,液冷技術有望在超高算力密度場景下持續滲透。4、企業通信企業通信 26/29 3 月 16 日晚微軟正式宣布推出 Microsoft 365 Copilot,將大型語言模型(LLMs)的能力嵌入到 Office辦公套件產品中?;?GPT-4 的 Copi
74、lot 以其視頻+圖文的多模態分析以及更強大生成與理解能力,可更深度、全面發揮視頻會議 AI 助理功能,比如可以確定目標捕捉發言總結某人談話要點、全面理解會議主要內容,并自動整理及發送會議紀要等。隨著 Copilot 更強大功能對微軟辦公套件的加持,有望帶動 Teams 需求的增長,中國企業通信終端廠商將作為微軟重要的硬件合作伙伴有望深度受益。八八、產業發展、產業發展前瞻前瞻 1、基礎設施支持層面:基礎設施支持層面:云商云商/運營商運營商積極積極推進推進 AI 領域算力基礎設施建設領域算力基礎設施建設 北美云廠商資本支出向技術基礎設施和新數據中心架構傾斜北美云廠商資本支出向技術基礎設施和新數據
75、中心架構傾斜。22Q4 亞馬遜資本支出主要用于技術基礎設施的投資,其中大部分用于支持 AWS 業務增長與支持履行網絡的額外能力。預計未來相關投資將延續,并增加在技術基礎設施方面的支出。谷歌指引 2023 年資本開支與 2022 年基本持平,其中技術基礎設施有所增加,而辦公基礎設施將減少。Meta2022 年資本開支為 314.3 億美元,同比增長 69.3%,但同時 Meta 略微調低其 2023 年資本開支預期至 300-330 億美元(此前預期為 340-370 億美元),主要原因系減少數據中心建設的相關支出,轉向新的更具成本效益的、同時支持 AI 和非 AI 工作量的數據中心新架構。國內
76、三大運營商積極布局算力網絡,資本支出向新國內三大運營商積極布局算力網絡,資本支出向新興業務傾斜興業務傾斜。電信運營商作為數字基座打造者,運營商數字業務板塊成為收入增長的主要引擎,近幾年資本支出由主干網絡向新興業務傾斜。中國移動2022 年全年算力網絡投資 480 億元,占其總資本開支的 39.0%。2022Q3,中國移動算力規模達到7.3EFLOPS,并計劃在 2025 年底達到 20EFLOPS 以上。中國電信產業數字化資本開支占比同比上升9.3pc,算力總規模計劃由 2022 年中的 3.1EFLOPS 提升至 2025 年底的 16.3EFLOPS。中國聯通 2022年預估算力網絡資本開
77、支達到 145 億,同比提升 43%。作為作為算力基礎設施建設的主力軍,三大運營商目前已經進行前瞻性的基礎設施布局算力基礎設施建設的主力軍,三大運營商目前已經進行前瞻性的基礎設施布局。通信運營商自身擁有優質網絡、算力、云服務能力,同時具備天然的產業鏈優勢,依靠 5G+AI 技術優勢,為下游客戶提供 AI 服務能力,是新型信息服務體系中重要的一環,助力千行百業數字化轉型。在移動網絡方面,中國運營商已建設覆蓋全國的高性能高可靠 4/5G 網絡;在固定寬帶方面,光纖接入(FTTH/O)端口達到 10.25 億個,占比提升至 95.7%;在算力網絡方面,運營商在資本開支結構上向算力網絡傾斜,提升 27
78、/29 服務全國算力網絡能力。在 AI 服務能力方面,加快 AI 領域商業化應用推出,發揮自身產業鏈優勢,助力千行百業數字化轉型。2、技術技術發展發展層面:層面:算力需求帶動數據中心架構及技術加速升級算力需求帶動數據中心架構及技術加速升級(1)數據中心呈現超大規模發展趨勢數據中心呈現超大規模發展趨勢 超大規模數據中心,即 Hyperscale Data Center,與傳統數據中心的核心區別在于超大規模數據中心具備更強大的可擴展性及計算能力。規模上,超級數據中心可容納的規模要比傳統數據中心大得多,可以容納數百萬臺服務器和更多的虛擬機;性能上,超級數據中心具有更高的可擴展性和計算能力,能夠滿足數
79、據處理數量和速率大幅提升的需求。Statista 數據顯示,全球超大規模數據中心的數量從 2015 年的 259 個,提升到 2021 年的 700 個。根據Precedence Research 的報告顯示,全球超大規模數據中心市場規模在 2021 年為 620 億美元,到 2030年將達到 5930 億美元,預計在 2022-2030 年間以 28.52%的復合增長率(CAGR)增長。海內外云商均具備自己的超大規模數據中心海內外云商均具備自己的超大規模數據中心。Structure Research 在其報告中測算,到 2022 年全球超大規模自建數據中心總容量達到 13177 兆瓦(MW)
80、。全球四大超大規模數據中心平臺AWS、谷歌云、Meta 和微軟 Azure約占該容量的 78%。全球占主導地位的超大規模數據中心企業仍然是亞馬遜、谷歌、Meta 和微軟,在中國,本土企業阿里巴巴阿里巴巴、華為華為、百度百度、騰訊騰訊和金山云金山云都是領先的超大規模數據中心企業。28/29 (2)IB 網絡技術將更廣泛應用于網絡技術將更廣泛應用于 AI 訓練超算領域訓練超算領域 超級數據中心是具有更大規模和更高計算能力的數據中心超級數據中心是具有更大規模和更高計算能力的數據中心。隨著對數據處理數量和速率需求的提升,數據中心的可擴展性需求也在迅速提升。超級數據中心在規模和性能上較傳統數據中心都有了
81、大幅升級,能夠滿足超高速度擴展,以滿足超級需求的能力。InfiniBand 網絡滿網絡滿足大帶寬和低時延的需求,成為超算中心的主流足大帶寬和低時延的需求,成為超算中心的主流。InfiniBand(簡稱 IB)是一個用于高性能計算的計算機網絡通信標準,主要應用于大型或超大型數據中心。IB 網絡的主要目標是實現高的可靠性、可用性、可擴展性及高性能,且能在單個或多個互聯網絡中支持冗余的 I/O 通道,因此能夠保持數據中心在局部故障時仍能運轉。相比傳統的以太網絡,帶寬及時延都有非常明顯的優勢。(一般InfiniBand 的網卡收發時延在 600ns,而以太網上的收發時延在 10us 左右,英偉達推出的
82、 MetroX-3提升長距離 InfiniBand 系統帶寬至 400G)。作為未來算力的基本單元,高性能的數據中心越來越多的采用 InfiniBand 網絡方案,尤其在超算中心應用最為廣泛,成為 AI 訓練網絡的主流。3、政策環境層面:、政策環境層面:工業和信息化部工業和信息化部持續持續推進算力產業工作推進算力產業工作持續推動算力基礎設施建設持續推動算力基礎設施建設。統籌布局綠色智能的算力基礎設施,推進一體化大數據中心體系建設,加速打造數網協同、數云協同、云邊協同、綠色智能的多層次算力設施體系,實現算力水平的持續顯著提升,夯實數字經濟發展“算力底座”。聚力推進核心關鍵技術攻關聚力推進核心關鍵技術攻關。充分發揮我國的體制優勢和市場優勢,提升自主創新能力,加快高端芯片、新型數據中心、超算等領域研發突破,加強先進計算、算網融合等技術布局,推動算力產業向高效、綠色方向發展。不斷激發算力“引擎”賦能效應不斷激發算力“引擎”賦能效應。深入挖掘算力在數字政府、工業互聯網、車聯網、金融科技等創新應用場景下的融合應用,提高算力在醫療、交通、教育等傳統行業的應用水平,加快推進算力在更多生產生活場景的應用落地。