《計算機行業:政策、需求雙輪驅動AI算力前景廣闊-230612(53頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業:政策、需求雙輪驅動AI算力前景廣闊-230612(53頁).pdf(53頁珍藏版)》請在三個皮匠報告上搜索。
1、請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 2023.06.12 政策、需求雙輪驅動,政策、需求雙輪驅動,AI 算力前景廣闊算力前景廣闊 李沐華李沐華(分析師分析師)齊佳宏齊佳宏(分析師分析師)李博倫李博倫(分析師分析師)010-83939797 010-83939837 0755-23976516 證書編號 S0880519080009 S0880519080007 S0880520020004 本報告導讀:本報告導讀:算力是算力是 AI 產業發展的根基,迎來政策的密集支持和需求的快速釋放,產業發展的根基,迎來政策的密集支持和需求的快速釋放,AI 服務器及服務器及AI芯
2、片都迎來廣闊的發展機遇。芯片都迎來廣闊的發展機遇。摘要:摘要:投資建議:投資建議:由于海量數據處理需求激增、AI 模型算法漸趨復雜以及算力投資具備的強經濟效益,AI 算力產業的長期發展前景廣闊,迎來投資機遇。AI 服務器是 AI 算力產業價值量的最大體現,中國 AI服務器整機廠商增速領跑全球,AI 服務器整機環節受益標的包括浪潮信息、紫光股份、中科曙光、拓維信息等;AI 芯片是 AI 算力產業的核心競爭力,中國廠商正在奮力直追海外龍頭公司,AI 芯片受益標的包括寒武紀、海光信息、景嘉微等。算力是算力是 AI 產業發展的根基,迎來持續政策支持。產業發展的根基,迎來持續政策支持。數據的快速增長以及
3、算法模型的復雜化需要更強算力的支撐,同時算力還具備極強的經濟效益,據統計計算力指數平均每提高 1 點,國家的數字經濟和 GDP將分別增長 3.5和 1.8,因而成為政府政策支持的重點。目前,我國 AI 產業已經迎來了以新一代人工智能發展規劃為頂層定調,各部委、各地方政府政策輔助落地的“1+N”的產業政策體系,進入2023 年以來,北京市、深圳市、上海市等地都密集出臺 AI 產業支持政策,行業迎來持續政策催化。AI 服務器市場空間廣闊,中國廠商表現亮眼。服務器市場空間廣闊,中國廠商表現亮眼。根據 IDC 統計,2021年全球 AI 服務器市場規模為 156.3 億美元,預計 2026 年將增長至
4、347.1 億美元;2021 年中國 AI 服務器市場規模為 59.2 億美元,預計2026 年將增長至 123.4 億美元,長期成長空間廣闊。2021 年浪潮信息、新華三(紫光股份)、聯想的 AI 基礎設施營收增速領跑全球主要廠商,其中浪潮信息市場份額位居全球第一,未來中國 AI 服務器廠商有望充分受益于下游需求的持續釋放,迎來長足發展。英偉達引領全球英偉達引領全球 AI 芯片發展潮流,中國廠商奮起直追芯片發展潮流,中國廠商奮起直追,有望超預期,有望超預期發展發展。英偉達作為 GPU 的發明者,其芯片架構保持了快速迭代,計算性能實現大幅度提升,且注重軟件生態建設,提供高質量的軟件開發工具,使
5、其成為全球 AI 芯片產業的龍頭。在政策與需求的雙輪驅動下,中國 AI 芯片廠商正在奮起直追,尤其是在 ASIC 路線上加大投入,目前已經涌現出寒武紀、華為昇騰、海光信息、燧原科技等優秀的 AI 芯片廠商,AI 算力性能有顯著提升,未來有望實現超預期發展。風險提示:風險提示:下游需求不及預期的風險、核心元器件供應受制裁的風險、市場競爭加劇的風險 評級:評級:增持增持 上次評級:增持 細分行業評級 相關報告 計算機機器人與大模型催化,具身智能東風已至 2023.05.28 計算機重點關注 AI 大模型原生應用,優選兼具模型與垂直場景的廠商 2023.05.26 計算機蘋果 MR 有望引爆機器視覺
6、的iPhone 時刻 2023.05.18 計算機北京市促進 AI 發展政策出爐,聚焦算力、數據與場景 2023.05.16 計算機4 月訂單環比繼續回升,醫院繼續貢獻大單 2023.05.04 行業專題研究行業專題研究 股票研究股票研究 證券研究報告證券研究報告 計算機計算機 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 2 of 53 目目 錄錄 1.算力是 AI 產業發展的根基,具有極強的經濟效益.3 2.“1+N”政策體系日益完善,三階段發展均有側重.4 3.GPU 是 AI 硬件產業鏈中第一價值量.8 3.1.AI 數據中心需求激增,AI
7、 服務器快速放量.8 3.2.AI 服務器中,GPU 價值量最大.13 4.全球 AI 服務器市場空間廣闊,中國廠商表現亮眼.18 4.1.生成式人工智能驅動全球 AI 服務器市場持續增長.18 4.2.中國廠商在全球 AI 服務器市場中處于領軍地位.21 4.2.1.浪潮信息:全球 AI 服務器領軍企業.22 4.2.2.紫光股份:全面擁抱 AIGC,快速崛起的 AI 服務器龍頭企業 25 4.2.3.中科曙光:穩步增長的老牌智能計算龍頭企業.27 4.2.4.拓維信息:自主可控的昇騰智能計算生態核心參與者.28 5.英偉達引領全球 AI 芯片發展潮流.29 5.1.AI 應用興起將持續推動
8、英偉達數據中心業務高增長.29 5.2.英偉達 AI 芯片架構不斷演進.31 5.3.英偉達非常重視軟件生態的配套.34 5.3.1.CUDA 生態構筑軟件壁壘.34 5.3.2.推出 AI 模型,協助應用開發.36 5.4.實現云與邊緣的共振.37 5.4.1.英偉達推出 DGX Cloud.37 5.4.2.英偉達 Jetson 邊緣計算平臺覆蓋更多場景.39 5.5.AMD 正在全力向英偉達發起追趕.40 6.政策、需求雙輪驅動,國內 AI 芯片企業蓬勃發展.41 6.1.AIGC 拉動 AI 算力需求,AI 芯片將成為未來科技石油.41 6.2.國內 AI 芯片企業蓬勃發展.44 6.
9、2.1.國內 AI 芯片企業百花齊放.44 6.2.2.AI 芯片乃兵家必爭之地,BA T 均已有所布局.48 7.投資建議.51 8.風險提示.51 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 3 of 53 1.算力是算力是 AI產業發展的根基,具有極強的經濟效益產業發展的根基,具有極強的經濟效益 算力是承載人工智能應用發展的基礎,是人工智能最核心的要素算力是承載人工智能應用發展的基礎,是人工智能最核心的要素。算力、算法和數據是人工智能產業發展的三個核心要素。海量的數據每時每刻都在產生,數據的生產不再是問題,如何處理、分析和使用數據才是問題。
10、算法經歷了數十年的發展,在深度學習和加速計算出現之后,得到了迅速的發展和優化,開始成為社會關注的熱點。然而在三大要素中,算力才是最核心的要素,只有算力的進步才能推動人工智能產業向前發展并走向成熟,算力是承載和推動人工智能走向實際應用的決定性力量。數據的數據的快速快速增長對算力發展提出更高要求。增長對算力發展提出更高要求。隨著信息化、數字化的持續推進,全球新產生的數據量正在快速增長,根據 IDC 數據顯示,2021年全球新增數據總量達到 84.5 ZB,預計到 2026 年全球新增數據總量將達到 221.2 ZB,2021 年至 2026 年間的年復合增速達到 21.22%。海量數據為人工智能應
11、用的發展提供了肥沃的土壤,但需要更強大的智能算力對其進行處理。同時隨著新應用場景的出現,越來越多場景對數據的實時性提出更高要求,實時數據的激增使得邊緣計算能力變得愈發重要,人工智能應用也越來越依賴邊緣算力支撐。算法算法模型模型的復雜化和巨量化需要更強算力的支撐。的復雜化和巨量化需要更強算力的支撐。雖然數據總量正在快速增長,但正在被有效利用的數據量不足 1%。如何有效的抓取高質量數據并建立精準模型,取決于 AI 算法的開發能力。近些年,算法模型的參數量和復雜程度都在呈現指數級增長態勢,尤其是自然語言處理等新興認知智能領域對算力的要求遠超圖像識別和語音識別等傳統 AI 領域。2018 年 6 月推
12、出的自言語言處理大模型 GPT-1 的模型參數量為 1.17億,2019 年 2 月推出的 GPT-2 的模型參數量大幅提高至 15 億,2020 年5 月推出的 GPT-3 參數量則進一步提高至 1750 億。模型參數的大幅度提升也快速提高了對智能算力的需求,如果用“算力當量(PFLOPS-day,PD)”,即每秒千萬億次計算機完整運行一天消耗的總算力,來度量人工智能任務所需的智能算力總量,根據2022-2023 中國人工智能計算力發展評估報告顯示,訓練 GPT-3 模型需要 3640 PD 的智能算力。算力的算力的提升還具有極強的經濟效益,因而成為各國政策支持的重點。提升還具有極強的經濟效
13、益,因而成為各國政策支持的重點。根據清華大學全球產業院與浪潮信息聯合發布的2021-2022 全球計算力指數評估報告,通過對全球 15 個重點國家的計算力指數與數字經濟及GDP 的回歸分析,得到 15 個重點國家的計算力指數平均每提高 1 點,國家的數字經濟和 GDP 將分別增長 3.5和 1.8,預計該趨勢在 2021年至 2025 年間將持續保持,且進一步研究發現,當一個國家計算力指數分別達到 40 分及 60 分以上時,計算力指數每提升 1 點,其對 GDP增長的推動力將分別增加到 1.5 倍及 3 倍,對經濟增長的拉動作用會變得更加顯著??紤]到算力提升,尤其是智能算力提升所具備的重大經
14、濟效益,對算力基礎設施發展的支持性政策成為各國政策的重點。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 4 of 53 圖圖 1:算力提升具有極強的經濟效益:算力提升具有極強的經濟效益 數據來源:2021-2022 全球計算力指數評估報告 2.“1+N”政策體系日益完善,三階段發展均有側重”政策體系日益完善,三階段發展均有側重 圍繞推動人工智能健康快速發展的現實要求圍繞推動人工智能健康快速發展的現實要求,我國政府我國政府主要以五個角度主要以五個角度進行發力進行發力。人工智能技術對生產、流通、消費等形成高度滲透、跨界融合,新業態、新模式不斷涌現,給以
15、往的產業生態、社會分工、行業和企業邊界、生產組織方式等諸多方面帶來前所未有的新變化。而促進新業態、新產業發展的關鍵在于強化產業政策,為新興產業發展創造更加有利的外部環境。因此,我國政府主要采用“五大類政策”,妥善應對人工智能可能帶來的挑戰,形成適應人工智能發展的制度安排,夯實人工智能發展的社會基礎。五大類政策主要包括了相關法律法規和倫理規范、人工智能發展支持政策、標準和產權體系、監管和評估體系以及 AI人才培訓。圖圖 2:我國各類人工智能政策內涵可大致分為五個維度我國各類人工智能政策內涵可大致分為五個維度 資料來源:國務院新一代人工智能發展規劃,國泰君安證券研究 頂層定調,頂層定調,新一代人工
16、智能發展規劃首次確認了人工智能產業“三新一代人工智能發展規劃首次確認了人工智能產業“三步走”戰略。步走”戰略。國務院于 2017 年發布的新一代人工智能發展規劃是中國在人工智能領域進行的第一個部署文件,確定了人工智能產業發展的總體思路、戰略目標和任務,規劃確定了人工智能產業在 2020 年、2025 年及 2030 年的“三步走”發展目標。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 5 of 53 圖圖 3:中國人工智能產業“三步走”戰略(單位:萬億元)中國人工智能產業“三步走”戰略(單位:萬億元)資料來源:國務院新一代人工智能發展規劃、智研咨詢
17、,國泰君安證券研究 “1+N1+N”政策體系逐步構建”政策體系逐步構建。隨著頂層規劃的定調,將人工智能上升為國家戰略,部委層面也陸續進行了政策布局,即形成了“1+N”政策體系,“1”代表國務院發布的新一代人工智能發展規劃,“N”是指部委層面陸續出臺的關于人工智能產業的發展規劃、行動計劃、實施方案等落地政策,其中工信部、科技部發布的政策主要涉及數實融合、場景創新、區域創新等內容,國家標準委、發改委圍繞標準體系、倫理規范、基礎設施建設等內容開展工作。圖圖 4:人工智能“人工智能“1+N1+N”政策體系”政策體系逐步構建逐步構建 資料來源:國務院新一代人工智能發展規劃,國泰君安證券研究 復盤人工智能
18、相關政策歷程,政策的著力點愈發具體和針對性復盤人工智能相關政策歷程,政策的著力點愈發具體和針對性。自從2015 年國務院出臺的中國制造 2025提出發展智能裝備以及生產智能化,之后人工智能相關規劃和政策密集頒布。2016 年 3 月,人工智能寫入“十三五”規劃綱要。2016 年以后,國務院、發改委、工信部、科技部等多部門出臺了多個人工智能相關規劃及工作方案推動人工智能的發展。2017 年 10 月,人工智能寫進十九大報告,將推動互聯網、大數據、人工智能和實體經濟深度融合;2020 年 7 月中央網信辦等五部門發布的國家新一代人工智能標準體系建設指南明確到 2023 年,初步建立人工智能標準體系
19、,重點研制數據、算法、系統、服務等重點急需標準,并率先在制造、交通、金融、安防等重點行業和領域進行推進;0.150.411510024681012202020252030人工智能市場規模人工智能產業規模到2020年人工智能總體技術和應用與世界先進水平同步到2025年人工智能基礎理論實現重大突破技術與應用部分達到世界領先水平。到2030年人工智能理論技術與應用總體達到世界先進水平,成為世界主要人工智能創新中心。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 6 of 53 2021 年 9 月國家新一代人工智能治理專業委員會發布的 新一代人工智能倫理規
20、范標志著人工智能政策已從推進應用逐漸轉入監管領域;隨后在“十四五”國家信息化規劃文件中,統計發現人工智能詞頻高達 47次,其遠高于“十三五”中出現次數,體現了國家人工智能相關要求的持續加碼。圖圖 5:人工智能人工智能在“十四五”信息化規劃中高頻出現在“十四五”信息化規劃中高頻出現 資料來源:國泰君安證券研究 作為引領新一輪科技革命和產業變革的關鍵力量,人工智能芯片作為引領新一輪科技革命和產業變革的關鍵力量,人工智能芯片也也一直一直被政策所重視被政策所重視。國務院、發改委以及工信部等多個部門都陸續印發了支持和引導 AI 芯片行業發展政策,其中主要側重點涉及到了芯片技術路線、芯片行業規范以及芯片安
21、全運行規范等內容。從歷史政策來看,人工智能芯片在“十三五”規劃中被寫入國家發展規劃綱要,之后工信部出臺的新一代人工智能產業發展三年行動計劃 2018-2020重點扶持神經網絡芯片,推動人工智能芯片在國內實現規?;瘧?。2021 年“十四五”規劃提出重點發展數字技術創新,提高人工智能芯片的研發和應用。圖圖 6:我國人工智能芯片產業持續我國人工智能芯片產業持續受受到政策重視到政策重視 資料來源:各部委及政府官網,國泰君安證券研究 因此,可以看出我國人工智能政策因此,可以看出我國人工智能政策的發展的發展大致大致歷經了歷經了三個階段三個階段。第一階段(2015-2016 年)中,政策專注于試點和場景探
22、索,且政策數量相對較少。因為制造業是人工智能率先落地的領域之一,所以針對智能制造和“互聯網+”進行的相關布局是此階段重點,而且工業領域的智能化應用也可以為人工智能往其他領域延伸打下堅實基礎;第二階段(2017-2019 年),國家頂層計劃逐步清晰,“全面推動人工智能和實體經濟融合發展”成為主旋律,而且各個部委層面的政策及行動方案十分 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 7 of 53 具體,此階段政策發布數量較多;第三階段(2020 年-至今),產業實踐中所出現的挑戰逐步成為政策的重點,政策上開始聚焦于關鍵場景應用、標準化以及監管和倫理等
23、層面,政策開始向產業治理方向轉變。同時伴隨著 AIGC 產業化應用加速,使得人工智能監管技術不斷升級和復雜化,因此相關監管政策也將會有進一步更新和優化。圖圖 7:我國我國人工智能政策經歷三個發展階段,各有側重人工智能政策經歷三個發展階段,各有側重 資料來源:各部委官網、天翼智庫,國泰君安證券研究 生成式人工智能生成式人工智能形成形成新驅力,地方性新驅力,地方性人工智能人工智能政策密集出臺政策密集出臺。隨著ChatGPT 引爆的 AIGC 潮流興起,生成式人工智能對于實體經濟和相關產業的影響極為深遠,為了抓住這一輪智能化變革浪潮,各地方也逐步加大了相關政策的引導和支持。其中比較有影響力的是北京市
24、于 2023 年 5月 30 日發布的重磅實施方案,北京市發布了兩項重磅政策促進人工智能行業發展,其中北京市加快建設具有全球影響力的人工智能創新策源地實施方案(2023-2025 年)提出到 2025 年人工智能核心產業規模達到 3000 億元,持續保持 10%以上增長,輻射產業規模超過 1 萬億元。另一份 北京市促進通用人工智能創新發展的若干措施 則圍繞算力、數據、模型、場景和監管五大方面,提出了 21 條具體措施。根據新政策描述,北京將加快建設具有全球影響力的人工智能創新策源地。圖圖 8:北京市北京市提出若干提出若干發展通用人工智能的發展通用人工智能的措施措施,具有重要指導意義,具有重要指
25、導意義 資料來源:北京市促進通用人工智能創新發展的若干措施,國泰君安證券研究 各地方也都提出了各地方也都提出了各自的各自的人工智能產業人工智能產業相關發展相關發展目標目標。2023 年 5 月 31日,深圳市印發深圳市加快推動人工智能高質量發展高水平應用行動 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 8 of 53 方案(2023-2024 年)統籌設立規模 1000 億元的人工智能基金群,加上2022 年出臺實施的 深圳經濟特區人工智能產業促進條例,構筑起“一條例、一方案、一清單、一基金群的人工智能高質量發展政策體系;2023 年 5 月 2
26、5 日,上海市發改委也明確表示支持民營企業廣泛參與數據、算力等人工智能基礎設施建設,延長新型基礎設施項目貼息政策執行期限至 2027 年底,提供最高 1.5 個百分點的利息補貼。此外,各一線、二線城市也針對 AI 產業制定了企業數量目標和產業規模目標,凸顯了各地域對人工智能經濟貢獻的充足信心。表表 1:各省市重點城市均制定了人工智能產業相關成果目標各省市重點城市均制定了人工智能產業相關成果目標 城市地域城市地域 人工智能產業規模目標人工智能產業規模目標 人工智能企業數量目標人工智能企業數量目標 目標年份目標年份 上海上海浦東新區浦東新區 突破 2000 億元 1000 家 2023 年 深圳深
27、圳 突破 300 億元 20 家龍頭企業 2023 年 濟南濟南-青島青島 300 億元/2025 年 南京南京 超過 500 億元 100 家重點企業 2025 年 廣州廣州/1000 家 2023 年 天津濱海新區天津濱海新區 500 億元 10 家領軍企業 2023 年 杭州杭州/3-4 個千億級產業集群 2024 年 武漢武漢 500 億元/2023 年 長沙長沙 1000 億元 1000 家 2023 年 成都成都 突破 1500 億元 1000 家 2025 年 數據來源:各地 AI 產業政策規劃文件,國泰君安證券研究 3.GPU 是是 AI硬件產業鏈中第一價值量硬件產業鏈中第一價
28、值量 3.1.AIAI 數據中心需求激增,數據中心需求激增,AIAI 服務器快速放量服務器快速放量 AI 數據中心是專門用于支持人工智能計算和數據處理任務的設施或物數據中心是專門用于支持人工智能計算和數據處理任務的設施或物理空間。理空間。它在傳統數據中心的基礎上進行了特殊配置和優化,以滿足機器學習、深度學習和其他 AI 相關任務的需求。AI 數據中心通常擁有大量高性能的服務器、GPU 加速器和專門的存儲系統,以提供強大的計算能力并加速深度學習。此外,AI 數據中心還配備了高速的網絡設備和優化的軟件框架,以支持高效的數據傳輸和算法訓練。通過這些專門的配置和優化,AI 數據中心能夠為各種規模和復雜
29、度的 AI 工作負載提供可靠穩定的計算環境,并滿足大規模數據存儲、備份和分析的需求。AI數據中心在推動人工智能技術的發展和應用方面起到關鍵作用,為各行各業的 AI 應用和服務提供了強大的支持。表表 2:AI 數據中心比普通數據中心需要更好的計算能力、存儲需求、數據中心比普通數據中心需要更好的計算能力、存儲需求、網絡帶寬和軟件支持網絡帶寬和軟件支持 方面方面 需求需求 計算能力計算能力 用于大規模并行計算,處理復雜機器學習和深度學習算法的高性能計算設備(如 GPU 和特定的 AI 芯片)儲存需求儲存需求 用于存儲大規模數據集的大容量、高速存儲 行業專題研究行業專題研究 請務必閱讀正文之后的免責條
30、款部分請務必閱讀正文之后的免責條款部分 9 of 53 網絡寬帶網絡寬帶 用于快速數據傳輸和通信的高網絡帶寬、低延遲網絡,以滿足對數據傳輸速度的敏感需求 軟件支持軟件支持 針對機器學習和深度學習任務的軟件支持,包括專門的 AI 框架、庫和工具,以及優化的軟件棧和分布式計算平臺,以提高計算效率和性能 數據來源:國泰君安證券研究 AI 數據中心的行業格局呈現出多層次的供應鏈結構,包括上游的數據數據中心的行業格局呈現出多層次的供應鏈結構,包括上游的數據中心設備制造商和解決方案供應商,中游的云服務提供商和大型科技公中心設備制造商和解決方案供應商,中游的云服務提供商和大型科技公司,以及下游的企業用戶和個
31、人開發者。司,以及下游的企業用戶和個人開發者。這些不同環節的參與者相互合作,共同構建了一個競爭激烈且多元化的生態系統。AI 數據中心上游主要有芯片制造商、服務器和網絡設備供應商等。數據中心上游主要有芯片制造商、服務器和網絡設備供應商等。芯片制造商包括如海思、寒武紀、中芯國際等等,在 AI 數據中心中提供高性能的芯片解決方案。在服務器領域,國內的浪潮、新華三等企業以及國際企業如戴爾、惠普等都在中國市場有一定份額。網絡設備方面,華為、思科等公司提供了關鍵的網絡基礎設施。AI 數據中心中游主要有電信運營商、云服務提供商及大型互聯網企業數據中心中游主要有電信運營商、云服務提供商及大型互聯網企業和第三方
32、和第三方 IDC 服務商。服務商。當前許多從事 AI 研發的互聯網企業,像亞馬遜、百度、騰訊等都已部署自己的 AI 數據中心。阿里云、騰訊云和華為云等大型云服務提供商開始提供云計算、存儲、AI 平臺等服務。它們利用自身的技術和資源為企業和研究機構提供 AI 解決方案和支持。電信運營商方面,中國電信、中國移動、中國聯通等傳統電信運營商在建設數據中心基礎設施方面投入大量資源并提供 AI 相關服務。第三方 IDC 服務商比如萬國數據、世紀互聯等也在AI 數據中心市場中扮演重要角色。它們提供數據中心托管、云主機、網絡帶寬等服務,滿足企業和機構對AI 數據中心基礎設施和運維的需求。這些服務商通常提供靈活
33、的解決方案,使企業能夠快速部署和擴展 AI 應用。AI 數據中心的下游用戶需求主要來自各行各業的企業、研究機構和政數據中心的下游用戶需求主要來自各行各業的企業、研究機構和政府部門。府部門。這些用戶根據自身需求選擇合適的云服務提供商或搭建私有數據中心,以滿足其對 AI 技術的需求。下游用戶需求的多樣性使得 AI 數據中心市場分散。圖圖 9:AI 數據中心呈現多元多層次供應鏈生態系統數據中心呈現多元多層次供應鏈生態系統 數據來源:國泰君安證券研究 隨著隨著 AI 行業應用繼續深入發展,行業應用繼續深入發展,AI 數據中心的數量和規模將會持續增數據中心的數量和規模將會持續增 行業專題研究行業專題研究
34、 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 10 of 53 加。加。這一趨勢受到數據量增加和應用需求的推動、ChatGPT 帶來的算力增量需求以及技術創新的支持。AI 數據中心作為支持大規模數據處理、深度學習模型訓練和推理的關鍵設施,將發揮重要作用,推動人工智能技術的廣泛應用和進一步的創新。數據量的增加和數據量的增加和 AI 應用的擴展是應用的擴展是 AI 數據中心發展的重要驅動因素。數據中心發展的重要驅動因素。隨著物聯網、社交媒體和傳感器技術等數據源的增多,AI 數據中心需要處理和存儲更大規模的數據集。根據 IDC 報告,在 2014-2020 年,平均每個 IT
35、人員管理的數據量從 230GB 增加到 1231GB,超過 5 倍。而企業數據則預計將以 42.2%的速度增長。同時,人工智能技術在各行各業的廣泛應用以及對深度學習模型的訓練需求也促使了對 AI 數據中心的需求增加。圖圖 10:數據呈快速增長趨勢:數據呈快速增長趨勢 數據來源:IDC,國泰君安證券研究 大模型大模型的出現帶來了算力的增量需求。的出現帶來了算力的增量需求。根據 OpenAI 發布的有關 GPT-3模型的文檔,它包含 1750 億個參數,需要進行數千萬次的計算操作來完成一次推理任務。ChatGPT 的總算力消耗約為 3640PF-days,需要 78個投資規模 30 億、單體算力
36、500P 的數據中心才能支撐運行,這樣的規模和復雜性需要高性能的計算設備和大規模的并行計算能力,帶動了AI 數據中心需求的增長。圖圖 11:大模型時代使算力需求翻倍提升大模型時代使算力需求翻倍提升 數據來源:IJCNN 58Zettabytes175Zettabytes2010年2015年2020年2025年E 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 11 of 53 技術創新也對技術創新也對 AI 數據中心的發展起到推動作用。數據中心的發展起到推動作用。新的處理器架構、高速網絡、存儲技術以及更高效的冷卻和能源管理系統的出現,提升了數據中心的
37、性能和效率,為 AI 數據中心的發展提供了技術支持。由于數據量增長、計算能力要求、技術基礎設施需求和經濟效益等共同由于數據量增長、計算能力要求、技術基礎設施需求和經濟效益等共同驅動因素,預計專業的驅動因素,預計專業的 AI 數據中心增長趨勢與大規模數據中心增長趨數據中心增長趨勢與大規模數據中心增長趨勢相同,未來幾年勢相同,未來幾年 AI 數據中心呈現直線上升趨勢。數據中心呈現直線上升趨勢。圖圖 12:超大規模數據中心數量走勢(單位:個)超大規模數據中心數量走勢(單位:個)數據來源:Statista,國泰君安證券研究 圖圖 13:超大規模數據中心數量市場規模預測(單位:十億美元)超大規模數據中心
38、數量市場規模預測(單位:十億美元)數據來源:PrecedenceResearch,國泰君安證券研究 圖圖 14:中國整體中國整體 IDC 業務市場規模及預測(單位:億元)業務市場規模及預測(單位:億元)02004006008002015年2016年2017年2018年2019年2020年2021年01002003004005006007000%5%10%15%20%25%30%35%40%45%50%010002000300040005000600070002017年 2018年 2019年 2020年 2021年 2022年E2023年E2024年E 行業專題研究行業專題研究 請務必閱讀正文
39、之后的免責條款部分請務必閱讀正文之后的免責條款部分 12 of 53 數據來源:科智咨詢,國泰君安證券研究 AI 數據中心主要包括服務器、存儲設備、網絡設備、冷卻系統以及電數據中心主要包括服務器、存儲設備、網絡設備、冷卻系統以及電源設備等部分。源設備等部分。這些組成部分共同構成了一個高效、可靠的基礎設施,為數據中心提供了強大的計算能力和存儲能力,支持 AI 算法的運行和數據的處理。服務器是數據中心的核心,用于執行復雜的計算任務和運行人工智能算服務器是數據中心的核心,用于執行復雜的計算任務和運行人工智能算法。法。數據中心的算力大小取決于服務器的規模和數量,較大規模的服務器意味著更多的處理單元和計
40、算資源,從而提供更強大的計算能力。存儲設備在存儲設備在 AI 數據中心中起著重要的作用,用于存儲和管理大量的數數據中心中起著重要的作用,用于存儲和管理大量的數據集和模型。據集和模型。這些存儲設備包括硬盤陣列(RAID)、網絡附加存儲(NAS)等,它們為數據的存儲和訪問提供支持。存儲設備的容量和性能決定了數據中心能夠處理和存儲的數據規模。更大容量和更高速的存儲設備可以支持更多數據的存儲和訪問,從而為算力的發揮提供了必要的支持。網絡設備在數據中心中起到連接和傳輸數據的關鍵作用。網絡設備在數據中心中起到連接和傳輸數據的關鍵作用。AI 數據中心需要高速、可靠的網絡設備來連接服務器和存儲設備以實現數據的
41、快速傳輸,以及數據中心內部各個組件之間的高效通信??焖俚臄祿鬏敽透咝У耐ㄐ拍軌蛱嵘懔Φ睦眯屎蛿祿幚淼乃俣?。由于大量的服務器和計算由于大量的服務器和計算設備會產生大量的熱量,數據中心需要強大的設備會產生大量的熱量,數據中心需要強大的冷卻系統來保持設備的正常運行溫度。冷卻系統來保持設備的正常運行溫度。冷卻系統確保數據中心的溫度適宜,防止設備過熱而影響性能和可靠性。高效的冷卻系統可以確保數據中心的穩定運行,保障算力的持續發揮。電源設備是數據中心的基礎設施之一,提供穩定的電力供應,保障數據電源設備是數據中心的基礎設施之一,提供穩定的電力供應,保障數據中心穩定運行。中心穩定運行。發電機、UPS
42、(不間斷電源系統)和電力配電系統等電源設備提供持續穩定的電力供應,確保數據中心不會因為電力問題而中斷運行,保障算力的連續可用性。圖圖 15:各部件共同構建高算力各部件共同構建高算力 AI 數據中心數據中心 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 13 of 53 數據來源:英偉達官網 在在 AI 數據中心中,服務器、存儲設備、網絡設備、冷卻系統和電源設數據中心中,服務器、存儲設備、網絡設備、冷卻系統和電源設備的價值量占比會根據數據中心的規模、需求和架構設計等因素而有所備的價值量占比會根據數據中心的規模、需求和架構設計等因素而有所不同。不同。一
43、般服務器占據較大的比例,服務器是 AI 數據中心的核心部分,用于執行復雜的數據處理和機器學習任務,根據中國信息通信研究院的研究數據,其價值量約占總體的 70%左右。存儲設備在 AI 數據中心中起到關鍵的作用,用于存儲大規模的數據集、訓練數據和模型參數,約占總體的15%至30%。根據前瞻研究院的數據顯示,網絡設備提供高速、可靠的數據傳輸和連接,其比例較低,約占總體的 15%至 20%,但仍然是不可或缺的部分。冷卻系統和電源設備的比例相對較低,分別占總體的 5%至 15%,但它們對數據中心的可靠性和穩定運行至關重要。具體價值量占比因需求、行業差異和技術等因素有所不同。圖圖 16:英偉達數據中心購置
44、預算構成英偉達數據中心購置預算構成 數據來源:英偉達官網,國泰君安證券研究 3.2.AIAI 服務器中,服務器中,GPUGPU 價值量最大價值量最大 AI 服務器是服務器是 AI 數據中心重要的組成部分數據中心重要的組成部分。AI 服務器是專門為人工智能應用而設計和配置的服務器,具備強大的計算能力和高效的數據處理能力,是執行 AI 任務和處理大規模數據的關鍵組件,為數據中心提供計算資源和算力,用于執行復雜的 AI 算法和模型。AI 服務器有兩種主要架構:混合架構和基于云平臺的架構?;旌霞軜嬙试S數據存儲在本地,而基于云平臺的架構利用遠程存儲技術和混合云存儲來進行數據存儲,70%20%10%服務器
45、存儲軟件與服務 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 14 of 53 即聯合使用本地存儲和云存儲技術。AI 服務器通常采用異構架構,結合不同類型的處理器,例如 CPU 和加速卡(如 GPU、TPU 等),以提供更高的計算性能。這種異構架構使得服務器能夠同時處理并行計算和特定的 AI 計算任務,加速數據處理和模型訓練過程。作為數據中心的核心設備,AI 服務器承載著計算、存儲和網絡功能,為數據中心的運行提供穩定的支持,以滿足模型訓練、推理和數據處理等任務的需求。其可擴展性使其能夠適應不斷增長的計算和存儲需求,保持數據中心的性能和效率。表表 3
46、:AI 服務器主要使用混合架構和云平臺架構服務器主要使用混合架構和云平臺架構 架構架構 描述描述 優點優點 缺點缺點 混合混合 架構架構 可以將數據存儲在本地,利用本地的計算資源進行 AI 模型的訓練和推理 保證數據的安全性和隱私性 可能受限于本地的存儲和計算能力 云平臺云平臺架構架構 使用遠程存儲技術和混合云存儲(一種聯合本地存儲和云存儲的技術)進行數據存儲,利用云端的計算資源進行 AI 模型的訓練和推理 提供彈性的存儲和計算能力 可能存在數據的安全性和隱私性問題 數據來源:國泰君安證券研究 計算性能是衡量計算性能是衡量 AI 服務器性能的關鍵指標。服務器性能的關鍵指標。它取決于處理器的性能
47、和數量。對于 AI 任務,通常使用具有高度并行計算能力的處理器,例如中央處理器(CPU)、圖形處理器(GPU)和張量處理器(TPU)。其中,浮點運算性能(FLOPS)、GPU 核心數和頻率、內存帶寬、存儲系統性能、網絡性能和延遲會對 AI 服務器的計算能力產生影響。浮點運算性能衡量服務器處理深度學習任務的能力,GPU 核心數和頻率決定了并行計算的速度,更多的核心和更高的頻率可以提供更快的計算速度和更高的并行處理能力,從而加速 AI 算法和模型的執行。內存帶寬和存儲系統性能影響數據讀寫效率,網絡性能關乎服務器間數據傳輸,而延遲則與實時響應需求有關。這些指標綜合考慮可以評估 AI 服務器的計算性能
48、,選擇和權衡取決于具體應用場景和需求。AI 應用需要處理大規模的數據集和模型,因此存儲容量和速度也是應用需要處理大規模的數據集和模型,因此存儲容量和速度也是 AI服務器的重要屬性。服務器的重要屬性。AI 服務器需要提供足夠的存儲容量來存儲數據和模型參數。同時,存儲設備的讀寫速度也是至關重要的,它會影響數據的存取效率和模型訓練的速度。傳統的硬盤驅動器(HDD)可以提供較大的存儲容量,而固態硬盤(SSD)則具有更快的讀寫速度和更低的訪問延遲,對于快速的數據存取和模型加載至關重要。更大的內存容量和更快的內存帶寬可以支持更大的內存容量和更快的內存帶寬可以支持 AI 服務器的高效數據處理服務器的高效數據
49、處理和計算。和計算。內存容量和內存模塊(RAM)會影響數據存儲和傳輸能力。內存控制器的性能和總線架構決定了內存的帶寬和效率。內存通道數量和頻率也會影響內存的帶寬和響應速度。此外,使用 ECC(Error-Correcting Code)內存可以提高數據完整性和服務器可靠性。AI 服務器需要具備高速穩定的網絡連接,以便與其他服務器、客戶端服務器需要具備高速穩定的網絡連接,以便與其他服務器、客戶端 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 15 of 53 和外部數據源進行通信和數據傳輸。和外部數據源進行通信和數據傳輸。AI 服務器的網絡連接速度受
50、到多個部件性能的影響。網絡接口卡(NIC)決定了服務器與網絡之間的物理連接和數據傳輸速率。不同網絡連接介質(如以太網電纜或光纖)具有不同的傳輸能力和帶寬,影響服務器的連接速度。網絡交換機和路由器的性能對數據包的路由和轉發起著關鍵作用,它們的處理能力和轉發能力會直接影響服務器的網絡連接速度。網絡協議和協議棧的優化以及網絡拓撲和帶寬管理策略也會對服務器的網絡連接速度產生影響。為了確保服務器的穩定性和可靠性,為了確保服務器的穩定性和可靠性,AI 服務器需要有效的散熱和冷卻服務器需要有效的散熱和冷卻系統。系統。散熱器、風扇和冷卻技術的效率決定了服務器在高負載條件下的散熱能力。良好的散熱和冷卻設計可以降
51、低溫度,提高系統性能和可靠性。AI 服務器的高電源能效可以提供更好的性能功耗比,降低能源消耗和服務器的高電源能效可以提供更好的性能功耗比,降低能源消耗和運行成本。運行成本。電源單元通過穩定的電壓輸出和高效的電能轉換提供穩定可靠的電源供應,并減少能量損耗。電源管理模塊控制和監測電源的運行狀態,提供精確的電源調節和能量管理,以優化服務器的能效性能。圖圖 17:AI 服務器拆箱圖服務器拆箱圖 數據來源:英偉達官網,國泰君安證券研究 AI 服務器中的主要元器件包括服務器中的主要元器件包括 CPU、GPU 板組、內存、存儲、網絡接板組、內存、存儲、網絡接口卡、機箱、主板、散熱系統和電源??诳?、機箱、主板
52、、散熱系統和電源。CPU 負責執行計算任務和處理數據,是服務器的主要計算引擎,可以進行復雜的算法和模型運算。加速卡(如 GPU、TPU)提供高性能的并行計算能力,用于加速機器學習和深度學習任務,可以加快模型訓練和推理的速度。內存(RAM)用于臨時存儲數據和程序代碼,提供快速的數據訪問和處理能力。AI 服務器通常配備大容量的內存,以支持大規模的數據集和模型。存儲設備用于持久化存儲數據和模型,包括硬盤驅動器(HDD)、固態硬盤(SSD)和存儲陣列(RAID)等,提供高速的數據讀寫能力和大容量的存儲空間。網絡接口卡(NIC)提供高速穩定的網絡連接,以便與其他服務器、客戶端和外部數據源進行數據傳輸。機
53、箱是 AI 服務器的外部框架,提供支撐和保護內部組件的結構。背板提供連接各個部件的接口,而布線則用于傳輸電力和數據信號。主板是 AI 服務器的核心電路板,連接各個部件并提供電源和數據傳輸的接口,承載著 CPU、內存插槽、擴展插槽 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 16 of 53 和其他重要組件。散熱系統用于控制服務器的溫度并保持其在安全范圍內運行。散熱片吸收和分散熱量,而風扇則提供氣流來冷卻服務器內部。電源提供服務器所需的電能,確保各個組件正常運行。在訓練型在訓練型 AI服務器中,通常服務器中,通常 CPU價值量占比價值量占比 9.8
54、%,GPU占比占比 72.8%,內存占比內存占比 8.7%,其他占比,其他占比 8.7%。推理型。推理型 AI 服務器中,服務器中,CPU 價值量占價值量占比比 10%,GPU占比占比 50%,內存占比,內存占比 10%,存儲占比,存儲占比 5%,其他占比,其他占比 25%。以英偉達訓練、推理和分析通用的高性能 AI 系統 Nvidia DGX H100 為例進行成本拆分,GPU 價值量占比則更高,占比 86.66%。而 CPU 價值量則占比 2.31%,內存占比 3.49%,存儲占比 1.54%,網絡接口卡占比4.85%,其他占比 1.15%。表表 4:Nvidia DGX H100 BOM
55、 成本明細成本明細 元器件元器件 成本成本(美元美元)配置和性能描述配置和性能描述 CPUCPU$5,200$5,200 Dual Intel Xeon Platinum 8480C Processors 112 Cores total,2.00 GHz(Base),3.80 GHz(Max Boost)GPUGPU 板組板組$195,000$195,000 8GPU+4 NVSwitch Baseboard 內存內存$7,860$7,860 2TB 存儲存儲$3,456$3,456 OS:2x 1.92TB NVMe M.2 網絡接口卡網絡接口卡$10,908$10,908 4x OSFP
56、ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 機箱(包括機箱、機箱(包括機箱、背板、布線)背板、布線)$563$563 Height:14.0in(356mm),Width:19.0in(482.2mm),Length:35.3in(897.1mm)主板主板$360$360 Host baseboard manageme
57、nt controller (BMC)with RJ45 散熱系統(包括散散熱系統(包括散熱片和風扇)熱片和風扇)$463$463 散熱,運行溫度 5 30C(41 86F)電源電源$1,200$1,200 10.2kw 電力供應 總計總計$225,010$225,010 數據來源:英偉達官網,半導體行業觀察,國泰君安證券研究 表表 5:不同類型:不同類型 AI 服務器服務器 BOM 成本明細成本明細 元器件元器件 訓練推理型 AI 服務器 Dell EMC PowerEdge C4140 訓練型 AI 服務器 HPE Apollo 6500 Gen10 Plus 推理型 AI 服務器 NVI
58、DIA EGX A100 部件部件 總價(元)價值量占比 總價(元)價值量占比 總價(元)價值量占比 CPUCPU 3-11 萬 9.87%3-11 萬 1.06%1.5-3 萬 7.32%GPUGPU 13.2-132 萬 43.42%264 萬 93.35%10 萬 48.78%內存內存 3.6 萬 11.84%4.8 萬 1.70%8 千 3.90%存儲存儲 4 千-6 萬 1.32%8 千-12 萬 0.28%2-6 千 0.98%網絡網絡 2 千-6 萬 0.66%2 千-6 萬 0.07%3 萬 14.63%其他其他 10 萬 32.89%10 萬 3.54%5 萬 24.39%合
59、計合計 32.8-265.6 萬 100%283.8-403.8 萬 100%19.5-26.5 萬 100%行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 17 of 53 數據來源:英偉達官網,戴爾科技官網,惠普官網,國泰君安證券研究 圖圖 18:AI 服務器各元器件價值量占比服務器各元器件價值量占比 數據來源:IDC,國泰君安證券研究 AI 服務器的組裝和集成價值量取決于多個因素,包括服務器的型號、服務器的組裝和集成價值量取決于多個因素,包括服務器的型號、規模和配置等。規模和配置等。組裝集成價值量可以根據組裝過程中所需的時間、人力成本以及技術要
60、求來衡量。通常情況下,組裝集成價值量相對于整個服務器的總成本而言較小,通常在幾個百分比以內,具體數值可能會因不同的服務器和供應商而有所差異。對于高端的 AI 服務器,組裝集成成本相對較高,因為它們通常具有復雜的硬件配置和特殊的要求。以英偉達的 Nvidia DGX H100 為例,服務器的組裝成本為 1,485 美元,占整個服務器的 0.553%。在整個 AI 服務器的總成本中,組裝集成過程所占的比例相對較小。組裝集成過程對于確保服務器的正常運行和性能發揮非常重要。精確的組裝集成可以確保各個元件正確安裝、連接和配置,從而保證服務器的穩定性和可靠性。雖然組裝集成價值量相對較小,但它對服務器的整體
61、性能和可用性具有重要影響。在一個在一個 AI 數據中心中,最重要的部件通常是服務器。數據中心中,最重要的部件通常是服務器。服務器是執行 AI計算任務、存儲和處理大量數據的核心設備,為支持 AI 應用和服務提供高性能的處理能力、存儲容量和網絡連接。在一些大型 AI 數據中心中,服務器的投入比例通常在整體投入的 60%至 70%之間,占據較大的比例。GPU 是是 AI 服務器中價值量最高的部件,承擔了大部分的計算任務和深服務器中價值量最高的部件,承擔了大部分的計算任務和深度學習模型的訓練與推理度學習模型的訓練與推理。在整個 AI 服務器的投入比例中,GPU 通常占據較大的比例,大約在整體投入的 3
62、0%至 60%之間。GPU 提供了強大的并行計算能力和高效的深度學習加速,是實現高性能AI 計算的關鍵。其他部件如 CPU、存儲、網絡設備、冷卻系統和電源等在整體投入中的比例相對較小,但它們同樣是確保服務器正常運行和數據中心高效運作的必要組成部分。CPU 作為服務器的核心計算單元發揮著重要作用,而存儲、網絡設備、冷卻系統和電源等則在支持和維護服務器功能上起到關鍵作用。整個 AI 硬件產業鏈中的各個環節緊密合作,共同構建了支持 AI 應用和服務的完整生態系統。8.09%56.33%20.65%11.27%3.66%CPUGPU內存存儲其他 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部
63、分請務必閱讀正文之后的免責條款部分 18 of 53 4.全球全球 AI服務器市場空間廣闊,中國廠商表現亮眼服務器市場空間廣闊,中國廠商表現亮眼 4.1.生成式人工智能驅動全球生成式人工智能驅動全球 AIAI 服務器市場持續增長服務器市場持續增長 作為人工智能產業發展的核心基礎設施,全球作為人工智能產業發展的核心基礎設施,全球AIAI服務器市場持續增長服務器市場持續增長。根據 IDC 統計,2021 年全球 AI 服務器市場規模達到 156.3 億美元,同比增速為 39.06%,得益于人工智能各細分應用方向需求的強勁增長,AI服務器市場增速從 2020 年新冠疫情的沖擊下實現了快速恢復,201
64、8 年至 2021 年的年復合增速為 25.01%,實現了較快增長。IDC 預計,到 2026年全球 AI 服務器市場規模將達到 347.1 億美元,2021 年至 2026 年的年復合增速為 17.30%,將繼續保持相對較快增長的態勢。同時,全球 AI服務器的市場規模占整體服務器市場規模的比例將從 2021 年的 15.25%提高至 2026 年的 21.69%,AI 服務器市場規模增速高于整體服務器市場規模的增速,成為全球服務器行業保持景氣增長的核心驅動力。圖圖 1 19 9:全球全球 AIAI 服務器市場規模持續增長服務器市場規模持續增長 圖圖 2 20 0:全球全球 AIAI 服務器市
65、場規模占比持續提升服務器市場規模占比持續提升 數據來源:IDC,國泰君安證券研究 數據來源:IDC,國泰君安證券研究 生成式人工智能將成為全球生成式人工智能將成為全球 AIAI 服務器市場持續增長的新動能。服務器市場持續增長的新動能。隨著以GPT 模型為代表的的生成式人工智能大模型的快速迭代,以及以 ChatGPT、Microsoft 365 Copilot 等為代表的生成式人工智能應用使用量的激增,生成式人工智能對 AI 服務器的需求量正在爆發式增長。根據 IDC 統計,2022 年預計全球生成式人工智能對 AI 服務器的新增需求規模為 8.2 億美元,預計到 2026 年其新增需求規模將達
66、到 109.9 億美元,2022 年至2026 年的年復合增速高達 91.34%,同期其他類型 AI 服務器的年復合增速僅為 6.15%。預計生成式人工智能對 AI 服務器的需求占比將從 2022年的 4.21%快速提高至 2026 年的 31.66%,成為全球 AI 服務器市場持續增長的新動能。0.00%10.00%20.00%30.00%40.00%50.00%0100200300400全球AI服務器市場規模(億美元)同比0%5%10%15%20%25%20212022E2023E2024E2025E2026E全球AI服務器占整體服務器市場規模比例 行業專題研究行業專題研究 請務必閱讀正文
67、之后的免責條款部分請務必閱讀正文之后的免責條款部分 19 of 53 圖圖 2 21 1:全球生成式全球生成式 AIAI 服務器市場規模有望爆發式增長服務器市場規模有望爆發式增長 圖圖 2 22 2:全球生成式全球生成式 AIAI 服務器市場規模占比快速提升服務器市場規模占比快速提升 數據來源:IDC,國泰君安證券研究 數據來源:IDC,國泰君安證券研究 推理推理型型服務器將逐漸成為全球服務器將逐漸成為全球 AIAI 服務器的服務器的主流主流。在生成式大模型發展早期,AI 服務器需求以模型訓練為主,因而訓練型服務器占據市場主體地位。隨著后續生成式 AI 應用的快速發展,AI 服務器將主要滿足數
68、據的分析及模型輸出需求,因而推理型服務器將逐漸成為市場主流。根據IDC 統計,2021 年全球 AI 服務器市場中 57.33%為訓練型服務器,但預計在 2024 年推理型服務器市場規模將首次超越訓練型服務器,在 2026年推理型服務器的市場占比將達到 53.01%,與訓練型服務器的份額差距將持續拉開。圖圖 23:推理型服務器將逐漸成為全球推理型服務器將逐漸成為全球AIAI 服務器的主流服務器的主流 數據來源:IDC,國泰君安證券研究 AIAI 云計算及云計算及邊緣計算將成為全球邊緣計算將成為全球 AIAI 服務器服務器增速更快的部署方式。增速更快的部署方式。一方面,由于生成式 AI 大模型的
69、模型參數越來越大,其訓練所需的 AI 算力正在快速增長,傳統本地部署的算力中心越來越難以滿足大模型的算力需求,導致基于云化部署的 AI 云計算服務需求正在快速增長。另一方面,隨著各類物聯網設備端生成的數據量增速超過了網絡帶寬的增速,在更接近數據生成的地方直接進行數據運算和分析的需求正在快速增長,這導致基于邊緣計算的 AI 服務器實現更快的增長速度。根據 IDC統計數據,2021 年至 2026 年間,預計基于本地集中部署的、云化部署的以及邊緣計算端部署的AI服務器市場規模的年復合增速分別為8.2%、0%100%200%300%0501001502022E2023E2024E2025E2026E
70、全球生成式AI服務器市場規模(億美元)同比0%10%20%30%40%2022E2023E2024E2025E2026E全球生成式AI服務器占整體AI服務器市場規模比例0%10%20%30%40%50%60%70%80%90%100%202020212022E2023E2024E2025E2026E訓練型服務器市場占比推理型服務器市場占比 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 20 of 53 19.8%及 26.1%;預計 2026 年全球 AI 服務器中有 56.6%基于云化部署,是最主流的部署方式,20%基于邊緣計算部署,是增速最快的
71、部署方式。表表 6 6:云計算機邊緣計算成為全球:云計算機邊緣計算成為全球 AIAI 服務器市場規模(億美元)增速更快的部署方式服務器市場規模(億美元)增速更快的部署方式 2021 2022E 2023E 2024E 2025E 2026E 2021-2026 CAGR 本地集中部署 55 63 74 79 80 81 8.2%云化部署 80 104 135 158 179 196 19.8%邊緣計算部署 22 29 39 50 59 69 26.1%合計 156 195 248 286 318 347 17.3%數據來源:IDC,國泰君安證券研究 加速計算加速計算 AIAI 服務器更符合大規
72、模服務器更符合大規模 AIAI 運算的需求,成為運算的需求,成為 AIAI 服務器的主服務器的主流選擇。流選擇。加速計算 AI 服務器是指擁有一個或多個協處理器的AI 服務器,包括 GPGPU、FPGA 或 ASIC 協處理器,其更適合處理規模越來越大、算法越來越復雜的深度學習 AI 模型,因而已經成為目前 AI 服務器的主流選擇。主要使用 CPU 進行運算的非加速計算 AI 服務器的市場規模仍將有一定增長,但其主要用于小型人工智能模型的推理以及部分訓練負載。根據 IDC 統計,2021 年全球 AI 服務器中加速計算 AI 服務器市場規模為91 億美元,2026 年將增長至 245 億美元,
73、期間年復合增速為 22%,同期非加速計算的 AI 服務器市場規模的年復合增速僅為 9.3%。表表 7 7:加速計算加速計算 A AI I 服務器更符合大規模服務器更符合大規模 AIAI 運算的需求,成為運算的需求,成為 AIAI 服務器的主流選擇服務器的主流選擇 2021 2022E 2023E 2024E 2025E 2026E 2021-2026 CAGR 加速計算 91 121 162 195 222 245 22.0%非加速計算 65 74 85 91 96 102 9.3%合計 156 195 248 286 318 347 17.3%數據來源:IDC,國泰君安證券研究 多因素驅動下
74、,中國多因素驅動下,中國 AIAI 算力發展迎來黃金時期。算力發展迎來黃金時期。隨著一系列支持性政策的陸續出臺、海量數據的增加、算法模型的復雜化以及應用場景的深入發展,中國 AI 算力規模正在持續擴大。根據 IDC 數據,以半精度(FP16)測算中國的 AI 算力規模,2021 年中國 AI 算力規模達到 155.2 每秒百億億次浮點運算(EFLOPS),2022 年達到 268.0 EFLOPS,同比增長 72.7%,預計到 2026 年規模將達到 1271.4 EFLOPS,2021 年至 2026 年間中國 AI算力規模的年復合增長率達到 52.3%,將實現快速增長。作為參考,以雙精度(
75、FP64)測算通用服務器算力,2021 年中國通用算力規模為 47.7 EFLOPS,預計 2026 年將提高至 111.3 EFLOPS,2021 年至 2026 年間的年復合增速僅為 18.5%。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 21 of 53 圖圖 2 24 4:中國中國 AIAI 算力規模預計將保持快速增長算力規模預計將保持快速增長 圖圖 2525:中國通用算力規模預計將穩定增長中國通用算力規模預計將穩定增長 數據來源:IDC,國泰君安證券研究 數據來源:IDC,國泰君安證券研究 現階段中國現階段中國 AIAI 服務器市場增速
76、領跑全球,未來仍有較大提升空間。服務器市場增速領跑全球,未來仍有較大提升空間。我國在 AI 產業發展早期更注重算力硬件建設,根據 IDC 統計數據,2021年中國 AI 服務器市場規模達到 59.2 億美元,同比增長 68.2%,2018 年至 2021 年的年復合增速高達 52.14%,為全球增速的 2 倍以上,增速領跑全球;中國 AI 服務器占全球市場之比從 2018 年的 21.01%提高至 2021年的 37.88%,達到 3 成以上,是全球 AI 服務器市場實現快速增長的主要驅動者。IDC 預計未來中國 AI 服務器市場規模仍將保持較為穩健的增長態勢,預計到 2026 年市場規模達到
77、 123.4 億美元,2021 年至 2026 年間的年復增速為 15.82%。圖圖 2 26 6:中國中國 AIAI 服務器市場規模預計仍將穩健增長服務器市場規模預計仍將穩健增長 圖圖 2 27 7:中國中國 AIAI 服務器全球市場占比已超服務器全球市場占比已超 3 3 成成 數據來源:IDC,國泰君安證券研究 數據來源:IDC,國泰君安證券研究 4.2.中國廠商在全球中國廠商在全球 AIAI 服務器市場中處于領軍地位服務器市場中處于領軍地位 中國中國品牌品牌廠商廠商在全球在全球 AIAI 基礎設施基礎設施廠商廠商中中處于領軍地位,處于領軍地位,2 2021021 年年實現了實現了最快增速
78、最快增速。根據 IDC 數據,浪潮信息、新華三(紫光股份)、聯想是 2021年全球增速前三快的 AI 基礎設施(即 AI 服務器+AI 存儲合計)品牌廠商。2021 年,浪潮信息 AI 基礎設施營收同比增長 68.3%,市場份額從2020 年的 14.6%躍升至 17.8%,位居全球第一;新華三營收同比增長67.6%,市場份額從 3.3%上升至 4.0%;聯想營收同比增長 57.2%,市場份額從 4.6%上升至 5.2%;中國品牌廠商中只有華為因為受到地緣政治因素的影響,其營收同比下降 37.9%,市場份額從 9.4%下降至 4.2%。海0%50%100%150%020040060080010
79、00120014002019 2020 2021 2022 2023 2024 2025 2026中國AI算力規模(EFLOPSFP16)同比0%5%10%15%20%25%30%35%0204060801001202019 2020 2021 2022 2023 2024 2025 2026中國通用算力規模(EFLOPSFP64)同比0.00%10.00%20.00%30.00%40.00%50.00%60.00%70.00%80.00%020406080100120140中國AI服務器市場規模(億美元)同比0%10%20%30%40%中國AI服務器市場規模占全球市場比 行業專題研究行業專題
80、研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 22 of 53 外品牌廠商中戴爾份額從 16.4%下降至 15.7%,惠普份額從 9.8%下降至8.9%,IBM 份額從 6.4%下降至 4.2%,整體份額呈現下降狀態。若單獨考慮 AI 服務器的市場格局,2021 年浪潮信息以 20.9%的份額登頂全球 AI服務器市場,聯想、新華三、華為市場份額分別為 5.8%、4.0%及 2.9%,位列全球第 4、6、7 位。圖圖 2 28 8:中國品牌廠商在全球中國品牌廠商在全球 AIAI 基礎設施中市場份額較高基礎設施中市場份額較高 圖圖 2929:2 2021021 年,年,浪
81、潮信息領跑全球浪潮信息領跑全球 AIAI 服務器市場服務器市場 數據來源:IDC,國泰君安證券研究 數據來源:IDC,國泰君安證券研究 中國市場中,浪潮信息占據中國市場中,浪潮信息占據 AIAI 加速計算加速計算服務器市場的半壁江山。服務器市場的半壁江山。根據IDC 數據,2021 年浪潮信息的 AI 加速計算服務器在中國市場營收同比增長 61.6%,市場份額達到 52.4%,連續五年以超過 50%的市占率穩居行業第一;新華三、寧暢、安擎的 AI 服務器收入同比增速分別為 419.0%、300.3%、285.9%,是增速前三快的廠商,市場份額分別為 7.8%、7.9%、6.8%,均位居行業前五
82、名;華為則因受地緣政治影響,其收入下滑了37.1%,市場份額下降至 7.7%,位居行業第四。表表 8:浪潮信息占據中國浪潮信息占據中國 AI 加速計算服務器市場的半壁江山加速計算服務器市場的半壁江山 2021 年營收同比增速年營收同比增速 2021 年中國市場份額年中國市場份額 浪潮信息浪潮信息 61.6%52.4%寧暢寧暢 300.3%7.9%新華三新華三 419.0%7.8%華為華為-37.1%7.7%安擎安擎 285.9%6.8%其他其他 83.8%17.4%數據來源:IDC,國泰君安證券研究 4.2.1.浪潮信息浪潮信息:全球全球 AI 服務器領軍企業服務器領軍企業 浪潮信息與產業巨頭
83、進行深入合作,為大型互聯網廠商提供高質量的浪潮信息與產業巨頭進行深入合作,為大型互聯網廠商提供高質量的 AIAI服務器。服務器。在近 10 年前,浪潮信息就與全球算力芯片巨頭英偉達及英特爾建立了聯合實驗室,以探索實現性能密集型計算負載的并行化。隨后,由于阿里巴巴、騰訊、百度、字節跳動等全球范圍內的互聯網龍頭廠商在語音識別、圖像識別等領域對 AI 加速運算的需求開始快速增長,浪0.0%10.0%20.0%30.0%40.0%50.0%其他新華三華為IBM聯想惠普戴爾浪潮信息20212020浪潮信息浪潮信息,20.9%戴爾戴爾,13.0%惠普惠普,9.2%聯想聯想,5.8%IBM,4.1%新華三新
84、華三,4.0%華為華為,2.9%其他其他,40.1%行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 23 of 53 潮信息開始為互聯網巨頭進行產品優化設計服務,為其提供了一系列高質量的 AI 加速卡及服務器產品。隨著中國互聯網巨頭公司的快速發展,浪潮 AI 服務器的營收體量也保持了快速增長狀態,使其成長為全球及中國市場 AI 服務器的領軍企業。浪潮信息浪潮信息 AIAI 計算產品線齊全,計算產品線齊全,可面向客戶需求快速推動產品迭代可面向客戶需求快速推動產品迭代。浪潮信息可以提供從單機到集群、從邊緣計算端到超大規模數據中心端的硬件產品組合,且能夠根
85、據市場需求快速推出最新的 AI 計算產品。其中 NF5688 是公司面向超大規模數據中心推出高性能、高兼容、強拓展的新一代 NVLink AI 服務器,其搭載 8 顆英偉達 A800 組成的 HGX 計算模塊以及2顆第三代英特爾至強處理器,單機AI計算性能達到5 PFLOPS,兼容主流的 x86+CUDA 應用開發生態,可以滿足大規模 NLP/CV/NMT/DLRM模型的訓練和推理需求。NF5488 同樣使用 HGX 計算模塊并搭配 2 顆 64核 AMD 處理器,具備強大的 AI 訓練和推理能力,可用于圖像、視頻、語音識別、智能客服等典型 AI 應用場景。NF5468 則具備更強的硬件兼容性
86、,可根據用戶需求靈活搭載英偉達、AMD、英特爾、寒武紀、燧原等進口及國產加速卡。NF5448 搭載 4 顆英偉達 Ampere 架構 GPU 以及 2顆 AMD CPU,可以為客戶提供更低成本的 AI 計算服務。NE3412 則是公司面向邊緣計算場景提供的便攜式 AI 服務器,可以滿足邊緣 AI 推理及數據遷移等場景的需求。圖圖 30:NF5688 性能強勁,可滿足大模型訓練及推理需求性能強勁,可滿足大模型訓練及推理需求 數據來源:浪潮信息官網 浪潮信息浪潮信息AIAI計算產品性能突出,在權威性能計算產品性能突出,在權威性能測評測評榜單中多次霸榜奪冠。榜單中多次霸榜奪冠。MLPerf 是影響力
87、最廣的國際 AI 計算性能基準測評,由圖靈獎得主大衛帕特森聯合頂尖的學術機構發起成立。MLPerf 每年分別組織 AI 推理及AI 訓練性能測試各兩次,基于目前應用最主流的 AI 場景賽道分別進行性能測試,涵蓋了自然語言處理(BERT)、智能推薦(DLRM)、語音識別(RNN-T)、圖像識別(ResNet)、醫學影像分割(3D U-Net)、輕量級目標物體檢測(RetinaNet)、重量級目標物體檢測(Mask R-CNN)及強化學習(MiniGo)共八大類場景。2021 年浪潮信息的 AI 服務器共在四次測評中的細分場景固定任務賽道上獲得 44 項冠軍,占據全部項目總數的 54.32%;20
88、22 年浪潮信息再次獲得 49 項冠軍,占據全部項目總數的62.03%;其中在 2022 年的兩次數據中心推理服務器性能測評中,公司在 32 個細分項目中獲得 29 項冠軍,顯示出公司產品 AI 算力在全球范圍內的領先性。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 24 of 53 表表 9 9:2 2021021 年浪潮信息在年浪潮信息在 MLPerfMLPerf 測評中奪冠測評中奪冠 4 44 4 次,占到項目總數的次,占到項目總數的 5 54.32%4.32%單位:次 數據中心推理數據中心推理 邊緣推理邊緣推理 單機訓練單機訓練 合計合計
89、占比占比 浪潮信息浪潮信息 17 16 11 44 54.32%英偉達英偉達 14 3 17 20.99%戴爾戴爾 11 11 13.58%高通高通 2 3 5 6.17%超微半導體超微半導體 2 2 2.47%寧暢寧暢 2 2 2.47%數據來源:MLPerf,國泰君安證券研究 表表 1010:2 2022022 年浪潮信息在年浪潮信息在 MLPerfMLPerf 測評中奪冠測評中奪冠 4 49 9 次,占到項目總數的次,占到項目總數的 62.03%62.03%單位:次 數據中心推理數據中心推理 邊緣推理邊緣推理 單機訓練單機訓練 合計合計 占比占比 浪潮信息浪潮信息 28 18 3 49
90、62.03%英偉達英偉達 7 7 8.86%新華三新華三 1 3 4 5.06%寧暢寧暢 3 1 2 6 7.59%KRAI 5 5 6.33%高通高通 2 2 2.53%中科院自動化所中科院自動化所 2 2 2.53%阿里巴巴阿里巴巴 1 1 1.27%聯想聯想 1 1 1.27%華碩華碩 1 1 1.27%英特爾英特爾 1 1 1.27%數據來源:MLPerf,國泰君安證券研究 浪潮信息具備軟硬一體的全棧浪潮信息具備軟硬一體的全棧 AIAI 能力,可為客戶提供場景化的能力,可為客戶提供場景化的 AIAI 解決解決方案。方案。在豐富的 AI 硬件之上,公司還提供 AIStation 人工智能
91、開發平臺。該平臺可以實現 GPU 資源池化,統一調度企業 AI 計算資源;同時還提供完整的 AI 軟件棧和開發流程,AutoML 塔尖可以幫助實現企業級的自動化 AI 模型構建,提高模型開發效率;平臺也支持 TensorFlow、Pytorch 等主流 AI 框架拓展分布式訓練,在 resnet50 做分布式訓練測試時,其 GPU 加速比最高可提升 90%;其支持通過數據緩存功能大幅提升模型訓練效率,根據 resnet50 測試數據,在 70 任務并發下,AIStation數據緩存功能可以幫助模型訓練效率提升 72%?;诠拒浻惨惑w的全棧能力,公司可以為智慧醫療、生命科學、自動駕駛等領域提供
92、場景化的 AI 解決方案。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 25 of 53 圖圖 3 31 1:AIStationAIStation 數據緩存功能可提升模型訓練效率數據緩存功能可提升模型訓練效率 圖圖 3 32 2:AIStationAIStation 分布式訓練中分布式訓練中 GPUGPU 加速比最高可提升加速比最高可提升 9 90%0%數據來源:浪潮信息官網 數據來源:浪潮信息官網 圖圖 33:浪潮信息通過軟硬一體的全棧浪潮信息通過軟硬一體的全棧 AI 能力,為下游客戶提供場景化的能力,為下游客戶提供場景化的 AI 解決方案解決方
93、案 數據來源:浪潮信息官網 4.2.2.紫光股份紫光股份:全面擁抱:全面擁抱 AIGC,快速崛起的,快速崛起的 AI 服務器龍頭企業服務器龍頭企業 紫光股份紫光股份全面擁抱全面擁抱 AIGCAIGC 時代,市場份額快速提升。時代,市場份額快速提升。紫光股份旗下子公司新華三是國內數字化解決方案的核心供應商,在企業級交換機、企業級路由器、x86 通用計算服務器、GPU 加速計算服務器等眾多核心產品品類上市占率位居國內前三名,全面參與智慧計算、智能存儲、智能聯接、網絡安全各環節市場競爭。公司與英偉達較早便建立了合作伙伴關系,隨著 AI 應用的快速發展,公司選擇全面擁抱 AIGC 的戰略,加大對AI
94、服務器的研發投入,市場份額呈現快速提升之勢。根據 IDC 數據,2021年公司在中國市場的 AI 服務器營收同比增速高達 419%,市場份額已經躍升至行業第三名,是國內增速最快的 AI 服務器公司。紫光股份紫光股份擁有多元化的擁有多元化的 AIAI 服務器產品線布局,基于服務器產品線布局,基于 H H800800 芯片的高性能芯片的高性能 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 26 of 53 AIAI 服務器已經服務器已經推出。推出。公司推出了 UniServer R5000 系列 AI 服務器,可覆蓋從訓練到推理的 AI 全場景,其中旗
95、艦的 R5500 系列可以滿足大模型的訓練需求,采用模塊化設計理念,整機分為 GPU 計算模塊、CPU 計算模塊、硬盤模塊、風扇模塊、電源模塊,均可獨立插拔維護。R5500 G5是搭載 A800 GPU 的 AI 服務器,CPU 計算模塊支持 2 顆英偉達三代至強,GPU 計算模塊支持 HGX A800 8-GPU 模組,8 塊 A800 GPU 通過 6 個 NVSWITCH實現 400GB/s 的全互聯,AI 算力較上一代可提升多達 20 倍,可應用于語音識別、圖像分類、機器翻譯等多種人工智能業務場景。R5500 G6 則是搭載 H800 GPU 的全新 AI 服務器,CPU 計算模塊支持
96、 2 顆英特爾四代至強或 2 顆 96 核 AMD 芯片,GPU 計算模塊支持 HGX H800 8-GPU 模組,算力相較上一代產品實現 3.4 倍提升,可用于超大規模的 AI 大模型訓練。圖圖 3 34 4:R R55005500 系列采用先進的模塊化設計理念系列采用先進的模塊化設計理念 圖圖 3 35 5:R R55005500 系列支持系列支持 8 8 顆顆 A A800800 或或 H H800 800 GPUGPU 計算計算 數據來源:新華三官網 數據來源:新華三官網 紫光股份打造了全流程的傲飛智能算力紫光股份打造了全流程的傲飛智能算力中樞平臺。中樞平臺。傲飛中樞可以提供 AI模型
97、訓練、模型評估、模型導出、在線推理等功能,實現了 AI 的全流程,從智能標注、智能匹配到智能訓練和智能調優,以及最后實現智能推理,且支持最多 4096 個節點同時部署,滿足大規模 AI 計算需求,更高顯著提升 AI 應用開發效率,更好的滿足科學、交通、能源、教育等行業 AI 計算需求。圖圖 36:浪潮信息通過軟硬一體的全棧:浪潮信息通過軟硬一體的全棧 AI 能力,為下游客戶提供場景化的能力,為下游客戶提供場景化的 AI 解決方案解決方案 數據來源:新華三官網 紫光股份上線了小智紫光股份上線了小智 AIAI 實驗室功能,方便客戶體驗實驗室功能,方便客戶體驗 AIAI 應用開發流程。應用開發流程。
98、通過使用小智 AI 實驗室,政企客戶可以隨時隨地的使用基于云端的 AI 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 27 of 53 加速計算平臺,并在技術專家的幫助下快速創建和部署數據密集型的 AI應用原型,從而方便在后續實際 AI 應用開發過程中選擇更優、更可靠的軟件和基礎架構,使政企客戶更快的過渡到 AI-Native 的應用環境之中,從而帶動公司 AI 基礎設施的銷售。圖圖 37:小智小智 AI 實驗室實驗室可以幫助客戶快速體驗可以幫助客戶快速體驗 AI 應用開發流程應用開發流程 數據來源:新華三官網 4.2.3.中科曙光:穩步增長的老牌
99、智能計算龍頭企業中科曙光:穩步增長的老牌智能計算龍頭企業 中科曙光是國內高性能智能計算產業的開拓者之一。中科曙光是國內高性能智能計算產業的開拓者之一。高性能計算 HPC 被認為是人工智能技術的發動機,中科曙光是國內高性能計算技術的領軍企業,憑借其技術領先優勢,提出了基于“HPC+大數據處理”的人工智能開放框架,為大型政企用戶提供完整的人工智能解決方案。其推出了專門面向人工智能、深度學習、高性能異構計算領域設計的 XMachine系列專用服務器,擁有較高的異構硬件兼容性,可以兼容 GPU、FPGA、寒武紀神經網絡芯片等各類型加速計算單元,同時具備高效率的電源設計、超高密度和超高傳輸速率等特性。公
100、司 AI 計算產品目前典型的應用項目有咪咕視頻 AI 基礎平臺、中國移動 AI 基礎平臺等。圖圖 38:中科曙光擁有豐富的異構智能計算硬件體系:中科曙光擁有豐富的異構智能計算硬件體系 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 28 of 53 數據來源:中科曙光官網 中科曙光推出容器化人工智能開發平臺,加速中科曙光推出容器化人工智能開發平臺,加速 AIAI 應用落地。應用落地。公司的容器化人工智能開發平臺解決方案實現了對深度學習開發環境的快速部署,針對深度學習開發流程,對運算資源按照訓練任務進行分割和分發,并額外支持容器鏡像管理、權限管理、交互
101、界面圖形化等功能,以幫助用戶更快速的介入人工智能領域,聚焦實際算法的優化和迭代,促進人工智能技術在各行各業的快速落地。圖圖 39:中科曙光:中科曙光推出容器化人工智能開發平臺,加速推出容器化人工智能開發平臺,加速 AI 應用落地應用落地 數據來源:中科曙光官網 4.2.4.拓維信息:拓維信息:自主可控的自主可控的昇騰騰智能計算生態核心參與者智能計算生態核心參與者 拓維信息是拓維信息是華為華為昇騰智能計算生態的核心參與者。騰智能計算生態的核心參與者。拓維信息于 2021 年 3月成為首批昇騰官方授權的 AI 計算硬件生產合作伙伴,目前公司可以提供“兆瀚”品牌的囊括智能小站、邊緣計算服務器、推理服
102、務器、訓練服務器、AI 集群等在內的全棧式昇騰智能計算硬件,最小的加速卡提供 8 TOPSINT8 算力,而最大的 AI 集群可以提供 256-1024 PFLOPSFP16算力,能夠滿足用戶從邊緣計算端到大型數據中心的多樣化算力需求。根據公司年報,2022 年 9 月公司獲得華為“優秀昇騰整機合作伙伴獎”,2022 年 11 月公司獲得華為“2022 年度昇騰最佳實踐伙伴獎”,是華為昇騰生態最重要的合作伙伴之一。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 29 of 53 圖圖 40:拓維信息可提供全棧式拓維信息可提供全棧式昇騰智能計算硬件騰智
103、能計算硬件 數據來源:拓維信息官網 拓維信息的智能計算產品符合政企客戶自主可控需求,連續中標標桿項拓維信息的智能計算產品符合政企客戶自主可控需求,連續中標標桿項目。目。公司“兆瀚”智能計算產品采用華為海思研發的自主可控的鯤鵬+昇騰異構計算芯片組,可滿足政企客戶對自主可控智能算力基礎設施的建設需求,因而在市場中享有獨特的競爭力,連續中標標桿項目。根據公司公告,2022 年 12 月公司中標全國一體化算力網絡國家(貴州)主樞紐中心 IT 設備采購項目,合同金額 1.83 億元;2022 年 6 月其連續中標長沙人工智能計算中心以及重慶人工智能計算中心的智能計算硬件訂單,訂單額分別為 1.04 億元
104、及 2.96 億元。此外公司在運營商服務器集采中也持續有收獲,昇騰智能計算領域,公司在 2022 年 2 月以第一名的身份中標中國聯通 2022 人工智能服務器集采,中標份額 44%,中標金額 0.63 億元。連續中標國家級智能算力試驗區大單,是公司產品實力的直接體現,且根據長沙及重慶市的算力發展規劃,一期項目算力合計為 600 PFLOPS,未來幾年將不斷擴容至 2000 PFLOPS,貴州主樞紐計劃到 2026 年算力建設至 274 PFLOPS,有望為公司帶來持續的收入增長。表表 1111:拓維信息拓維信息 AIAI 計算產品連續中標大型政企客戶標桿項目計算產品連續中標大型政企客戶標桿項
105、目 中標項目中標項目 中標年月中標年月 一期中標金額一期中標金額 備注備注 全國一體化算力網絡國家(貴州)主樞紐中心 2022.12 1.83 億元 計劃至 2026 年底之前擴容至 274P 長沙人工智能計算中心 2022.06 1.04 億元 一期規劃 200P,計劃 2025 年擴容至 1000P 重慶人工智能計算中心 2022.06 2.96 億元 一期規劃 400P,計劃未來擴容至 1000P 中國聯通 2022 年 AI 服務器集采 2022.02 0.63 億元 中標份額 44%,排名第一 數據來源:Wind,國泰君安證券研究 5.英偉達引領全球英偉達引領全球 AI芯片發展潮流芯
106、片發展潮流 5.1.A AI I 應用興起將持續推動英偉達數據中心業務高增長應用興起將持續推動英偉達數據中心業務高增長 英偉達是英偉達是 GPUGPU 的發明創造者。的發明創造者。1999 年,英偉達在納斯達克掛牌上市并于 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 30 of 53 同年提出了 GPU 概念,發布了 GeForce 256這被業界視為現代計算機圖形技術的開端。GPU 最早主要用于 PC 游戲和 Sega、Xbox 以及 PS3等主機游戲,能夠從硬件上支持 T&L(Transform and Lighting,多邊形轉換與光源處理
107、),因為 T&L 是 3D 圖像渲染中的一個重要部分,其作用是計算多邊形的 3D 位置和處理動態光線效果,提供細致的 3D 物體和高級的光線特效。3D 圖像渲染場景是一個并行計算任務。由于圖像中各區域之間沒有聯系或依賴關系,因此,這個任務可以輕易地被拆解成若干個獨立的任務,每個任務可以同時并行這樣也可以加快速度。這種并行計算的能力讓 GPU 意外的成為了 AI 計算的硬件基礎設施:在 AI 計算中,最常見的任務是深度學習。深度學習模型通常需要進行大量的矩陣計算,這是 GPU 的強項。GPU 可以同時執行大量的矩陣運算,從而加速深度學習模型的訓練和推理過程。由于芯片產業的贏家通吃效應,作為 GP
108、U 全球巨頭的英偉達目前占據全球 GPU 主要市場,并在 AI 時代迎來了自己的發展新機遇。圖圖 41:GPU 成為成為 AI 時代基礎設施時代基礎設施 數據來源:英偉達 當下游戲和數據中心占了英偉達收入的主要部分,數據中心業務剛剛超當下游戲和數據中心占了英偉達收入的主要部分,數據中心業務剛剛超過傳統游戲業務成為公司的頂梁柱。過傳統游戲業務成為公司的頂梁柱。英偉達瞄準四個大的市場:游戲、數據中心、專業可視化和汽車。游戲業務是英偉達賴以起家的傳統業務,高性能游戲顯卡是英偉達的拿手好戲,曾經是收入占比最高的業務,但在 2022 年已經被數據中心業務超越。數據中心業務目前是公司最大營收來源,云服務提
109、供商正在使用圖形處理單元(GPU)技術來處理數據用戶創建的海量數據,包括最終存儲在云服務器上的視頻、照片和消息,因此對于 GPU 的需求非常強烈,尤其是 AI 應用帶來的大量算力需求進一步推動了數據中心業務的發展。專業可視化產品在設計制造、數字內容創造、企業圖像視覺領域發揮著重要作用,能夠提升圖像顯示效果。智能汽車業務可能會成為英偉達未來的核心業務,其中包含了出售給主機廠和供應商的 GPU 和 SoC 芯片,以及對應的開發平臺。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 31 of 53 圖圖 42:數據中心和游戲業務占英偉達收入結構大頭數據中心
110、和游戲業務占英偉達收入結構大頭 數據來源:Wind,國泰君安證券研究 5.2.英偉達英偉達 A AI I 芯片芯片架構不斷演進架構不斷演進 隨著人工智能發展對于算力的要求越來越高,英偉達也在不斷改進其芯隨著人工智能發展對于算力的要求越來越高,英偉達也在不斷改進其芯片架構。片架構。每隔一到兩年,英偉達就會提出新的芯片架構,用以適應計算需求的升級。其中它在 2012 年發布的 Kepler 架構中提出了 GPUDirect技術,可以繞過 CPU/System Memory,完成與本機其他 GPU 或者其他機器 GPU 的直接數據交換;2016 年的 Pascal 架構中除了考慮深度學習,加入了 D
111、P unit 之外,還 NVLink 用以單機內多 GPU 內的點到點通信,帶寬達到了 160GB/s;2017 年提出 Volta 架構,基本以 Deep Learning為核心,引入了 Tensor Core;2020 年 Ampere 架構將每個時鐘可執行的 FP32 著色器操作數量增加了一倍,RT Cores 為光線/三角形相交測試提供了兩倍的吞吐量,新 Tensor Core 可以以兩倍于 Turing Tensor Core 的速率處理稀疏神經網絡,而 Turing GPU 不支持稀疏性;2022 年,英偉達在 Hopper 架構中引入新一代流式多處理器的 FP8 Tensor C
112、ore,用來加速 AI 訓練和推理,與上一代架構相比,新的 Transformer 引擎與 Hopper FP8 Tensor Core 相結合,在大型 NLP 模型上提供高達 9 倍的 AI 訓練速度和 30 倍的 AI 推理速度。表表 1212:英偉達芯片架構不斷演進英偉達芯片架構不斷演進 架構代號架構代號 Fermi Kepler Maxwell Pascal Volta Turing Ampere Hopper 時間 2010 2012 2014 2016 2017 2018 2020 2022 核心參數 16 個 SM,每個 SM 包括 32 Cuda Cores,共計 512 Cu
113、da Core 15 個 SMX,每個 SMX 包括 192 個單精度+64 個雙精度 Cuda Core 16 個 SM,每個 SM 包括 4個處理塊,每個處理塊包括32 個 Cuda Core+8LD/ST Unit+8SFU GP100 有 60個 SM,每個SM 包括 64 個Cuda Cores 和32 個 DP Core 80 個 SM,每個 SM 里面有32 個 FP64、64 個 INT32、64 個 FP32、8個 Tensor core 72 個 SM,SM全新設計,每個 SM 里面包括64個INT32、64 個FP32、8個Tensor core 108 個 SM,每個
114、SM 里面包括64個FP32、64 個 INT32、32 個 FP64、4個 Tensor core 132 個 SM,每個 SM 包 括128 個 FP32、64 個 INT32、64 個 FP64、4個 Tensor core 特點/優勢 首 個 完 整GPU 計 算 架構,支持與共游戲性能大幅提升,首次支持 GPU Direct相比 Kepler的每 組SM193個單元減少到NVLink 一代,雙向互聯帶寬160GB/s,NVLink 2.0,Tensor Core 1.0 滿足深度Tensor Core 2.0,RT Core 1.0 Tensor Core 3.0,RT Core 2
115、.0,NVLink Tensor Core 4.0,NVLink 4.0,結構稀疏1500590671544903455營收(百萬美元,2022)數據中心游戲專業可視化自動駕駛OEM和其他 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 32 of 53 享存儲結合純Cache 層次的GPU 架構,支持ECC的GPU 架構 技術 了 每 組128個,但是每個SM 單元有更多邏輯控制電路 P100 有 56 個SM HBM 學習和 AI 運算 3.0,結構稀疏性,MIG 1.0 性,MIG 2.0 制程 40/28nm 28nm 28nm 16nm 1
116、2nm 12nm 7nm 4nm 代表型號 Quadro 7000 K80、K40M M5000 M4000 P100 GTX 1080 P6000 V100 T4 A100 H100 數據來源:CSDN(shuaifeng.zhang),國泰君安證券研究 隨著芯片架構的不斷演進,芯片的計算性能也在快速提升。隨著芯片架構的不斷演進,芯片的計算性能也在快速提升。以近年來的三大典型架構 Volta、Ampere 和 Hopper 的代表芯片 V100,A100 和 H100為例,在內核數量、計算速度、工藝制程等方面都有大幅提升。相比 V100,A100 的單精度浮點計算能力,從 15.7TFLOP
117、S 提升至 19.5TFLOPS;而雙精度浮點運算從 7.8TFLOPS 提升至 9.7TFLOPS。從價格上來說,GPU 芯片的價格也隨著性能的提升而快速增加,根據快科技 2023 年 5 月的報道,V100 加速卡目前售價約 1 萬美元,A800 售價約 1.2 萬美元,A100售價約 1.5 萬美元,H100 售價約 3.65 萬美元。其中 A800 是英偉達為了滿足美國政府對中國市場的合規要求,在 A100 的基礎上推出的,將NVLink 高速互連總線的帶寬從 600GB/s 降低到 400GB/s。圖圖 43:相比相比 A100 和和 V100,H H100100 芯片性能大幅提升芯
118、片性能大幅提升 數據來源:機器之心 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 33 of 53 A AI I 大模型的興起催化了對于算力的需求。大模型的興起催化了對于算力的需求。隨著 OpenAI 在全球范圍內推出 ChatGPT 應用,引發了業界對于大模型的追捧。眾所周知,大模型的訓練和推理都需要大量的算力支持,英偉達作為算力領域主要的“軍火供應商”,充分享受到了這一波紅利。大模型對于算力的消耗可以分為三個環節大模型對于算力的消耗可以分為三個環節。第一個環節是模型預訓練環節,據 OpenAI 團隊發表于 2020 年的論文 Language
119、Models are Few-Shot Learners,訓練一次 1746 億參數的 GPT-3 模型需要的算力約為 3640 PFlop-day。以 A100 FP16 運算 速度 156TFLOPS(floating point operations per second,1TFLOPS=1012 FLOPS,1PFLOPS=1024TFLOPS)計算,一張卡需要跑 2 萬多天,一萬張卡就只需要訓練兩天。第二個環節是模型迭代調優環節。第三個環節是日常運營推理環節。根據Semianalysis 分析師 Dylan Patel 對模型參數、日活躍用戶數以及硬件利用率等因素分析,OpenAI
120、需要用到 3617 個 HGX A100 服務器(8 GPU配置)來維持運轉。也就是說有志于進行大模型訓練和日常運營的企業,需要配置的 A100 GPU 的數量大致需要在 1 萬個左右。為了應對為了應對 chatchatGPTGPT 引發的大模型競爭,引發的大模型競爭,全球科技巨頭全球科技巨頭紛紛開始儲備算力紛紛開始儲備算力資源資源,英偉達直接受益于這波算力軍備競賽,英偉達直接受益于這波算力軍備競賽。據 Business Insider 報道,推特于 4 月份購買了約 1 萬個 GPU,用于公司的兩個數據中心之一;微軟在 Azure 中的人工智能超級計算機與 OpenAI 合作構建,擁有 28
121、.5萬個 CPU 和 1 萬個 GPU;谷歌于 5 月宣布了一款擁有約 26000 個英偉達H100 的 AI 超級計算機;而國內發布大模型的公司越來越多,對于 AI 算力的需求同樣在快速爆發。根據 5 月 29 號發布的中國人工智能大模型地圖研究報告,中國 10 億級參數規模以上大模型已發布 79 個。報告顯示,北京、廣東、浙江、上海等地的大模型數量最多,同時這 4 個地方也是近三年人工智能服務器采購數量最高的地區。針對旺盛的市場需求,英偉達也在不斷推出性能更加強勁的產品組合。針對旺盛的市場需求,英偉達也在不斷推出性能更加強勁的產品組合。5 月 29 日,英偉達 CEO 黃仁勛在 COMPU
122、TEX 2023 展前發布會上,正式發布了全新的 GH200 Grace Hopper 超級芯片,以及基于 NVIDIA NVLink Switch System 驅動的擁有 256 個 GH200 超級芯片的 NVIDIA DGX GH200超級計算機。GH200 超級芯片使用 NVIDIA NVLink-C2C 芯片互連,將基于 Arm 的 NVIDIA Grace CPU 與 NVIDIA H100 Tensor Core GPU 整合在了一起,以提供 CPUGPU 一致性內存模型,從而不再需要傳統的 CPU至 GPU PCIe 連接。與最新的 PCIe Gen5 技術相比,這也將 GP
123、U 和 CPU之間的帶寬提高了 7 倍,將互連功耗減少了 5 倍以上,并為 DGX GH200超級計算機提供了一個 600GB 的 Hopper 架構 GPU 構建模塊。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 34 of 53 圖圖 44:英偉達發布英偉達發布GH200超級芯片超級芯片 數據來源:英偉達 5.3.英偉達英偉達非常重視軟件生態的配套非常重視軟件生態的配套 5.3.1.CUDA 生態構筑軟件壁壘生態構筑軟件壁壘 盡管以高性能計算芯片產品著稱,但英偉達絕不僅僅是一個芯片設計公盡管以高性能計算芯片產品著稱,但英偉達絕不僅僅是一個芯片設
124、計公司,其軟件生態反而成為競爭對手難以企及的優勢。司,其軟件生態反而成為競爭對手難以企及的優勢。英偉達所有硬件產品和解決方案都擁有統一的底層軟件架構“CUDA”(2006 年 11 月 9 日首次發布)以及運行庫“CUDA-X”。因此英偉達將復雜的顯卡編程打包成了一個簡單的接口,客戶端廣大的開發人員能夠非常簡單地利用這些接口和開發工具,高效完成各種應用的開發(普通開發者使用 C 語言就能控制 GPU 硬件進行并行計算)。當下英偉達的 CUDA 軟件生態已經成為其核心壁壘之一,這也是英偉達多年軟件研發投入取得的成果。圖圖 45:CUDA 是英偉達軟件生態的核心是英偉達軟件生態的核心 數據來源:英
125、偉達 CUDACUDA 是英偉達推 出的是英偉達推 出的軟件軟件平臺。平臺。CUDA(Compute Unified Device Architecture)包含了 CUDA 指令集架構(ISA)以及 GPU 內部的并行計算引擎,通過利用 GPU 的處理能力,可大幅提升計算性能。CUDA 是一個 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 35 of 53 完整的 GPU 解決方案,提供了硬件的直接訪問接口,而不必像傳統方式一樣必須依賴圖形 API 接口來實現 GPU 的訪問,CUDA 的開發門檻大幅降低。CUDA-X 則是對 CUDA 核心能力
126、的抽象和擴展,向上對接不同的行業應用需求。目前在英偉達的軟件棧體系中,分為CUDA-X AI和CUDA-X HPC,分別面向 AI 和 HPC 兩大領域。表表 1313:C CUDAUDA 具備核心優勢具備核心優勢 優勢優勢 具體內容具體內容 易部署 支持 docker,K8S 提供 NGC 平臺,用戶開箱即用 層次靈活的開發接口 CUDA 軟件也可以理解為和 OpenCL、OpenGL 類似的一種 API CUDA API 包括 Driver API,Runtime API 和 Libraries API 編程語言 Fortran,C/C+,Python 滿足不同領域開發者的需求 品類齊全的
127、工具集 GDB、Nsight、Memcheck 等 第三方工具和軟件庫 和用戶及廠商并肩,構筑軟件生態域 數據來源:鵬博士研究院,國泰君安證券研究 C CUDAUDA 軟件體系包括函數庫、運行時軟件體系包括函數庫、運行時 A APIPI 和驅動和驅動 A APIPI。對于一些標準的數學函數計算,可以直接調用標準函數庫進一步簡化編程過程,例如 CUFFT是利用 CUDA 進行快速傅里葉變換的庫函數;CUDA 運行時 API 和 CUDA 驅動 API 提供了實現設備管理、上下文管理、存儲器管理、代碼塊管理、執行控制、紋理索引管理與 OpenGL 和 Direct3D 的互操作性的應用接口。圖圖
128、46:CUDA 軟件體系包括三部分軟件體系包括三部分 數據來源:英偉達 C CUDAUDA 的程序結構中引入了主機端(的程序結構中引入了主機端(hosthost)和設備()和設備(devicedevice)的概念。)的概念。CUDA程序中既包含 host 程序,又包含 device 程序。同時,host(CPU 及系統內存)與 device(GPU 及 GPU 本身的顯存)之間可以進行通信,這樣它們之間可以進行數據拷貝。主機端代碼在 CPU 上執行,是普通的 C 語言代碼,設備端代碼在 GPU 上執行。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分
129、36 of 53 圖圖 47:CUDA 程序結構中引入了程序結構中引入了host 和和 device 數據來源:CSDN 5.3.2.推出推出 AI 模型,協助應用開發模型,協助應用開發 英偉達英偉達宣布推出全新定制宣布推出全新定制 AIAI 模型代工服務。模型代工服務。2023 年 5 月 29 日英偉達宣布推出全新定制 AI 模型代工服務 NVIDIA ACE 游戲開發版(NVIDIA Avatar Cloud Engine(ACE)for Games),利用 AI 驅動的自然語言交互技術,為游戲中的非玩家角色(NPC)帶來智能,從而改變游戲體驗。中間件、工具及游戲開發者可以使用“ACE
130、游戲開發版(ACE for Games)”在他們的游戲和應用中建立和部署定制的語音、對話及動畫 AI 模型。開發者可以整合整套“NVIDIA ACE 游戲開發版(NVIDIA ACE for Games)”解決方案,或是單獨使用自己需要的組件。在 NVIDIA Omniverse 的基礎上,“ACE 游戲開發版(ACE for Games)”為語音、對話和角色動畫提供優化的 AI 基礎模型,包括:NVIDIA NeMo 大型語言模型(LLM):使用專有數據構建、自定義和部署語言模型。根據游戲故事的世界觀及人物背景來定制調整 LLM,并且通過 NeMo Guardrails 來保護對話不會出現產
131、生相反效果或不安全的內容。NVIDIA Riva:用于自動語音識別(ASR)及文本轉語音,以啟用實時語音對話。NVIDIA Omniverse Audio2Face:用于配合語音音軌,實時為游戲角色創建臉部表情動畫。Audio2Face 搭配用于虛幻引擎 5 的 Omniverse Connector,開 發 者 可以 直 接 將 臉部 動 畫 添加 到 MetaHuman 的角色上。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 37 of 53 圖圖 48:NVIDIA ACE游戲開發版提供了一整套使令角色栩栩如生的生成式游戲開發版提供了一整套使
132、令角色栩栩如生的生成式 AI 工具工具 數據來源:英偉達 5.4.實現實現云與邊緣的共振云與邊緣的共振 5.4.1.英偉達推出英偉達推出 DGX Cloud 英偉達在英偉達在 20232023 年年 GTCGTC 大會上,宣布與多家云服務供應商合作,推出大會上,宣布與多家云服務供應商合作,推出NVIDNVIDI IA DGX CloudA DGX Cloud。這使得企業無需采購和擁有服務器,便可通過云服務商合作托管的 DGX Cloud 基礎設施。通過瀏覽器取得超算電腦級 AI運算功能,微軟 Azure 和 Google Cloud 將陸續開始供應服務。NVIDIA DGX Cloud 的收費
133、標準為每個實例每月 36999 美元起。每個實例包括八個 Nvidia H100 或 A100 80 GB GPU,每個 GPU 節點內存高達 640 GB,實現計算資源專用,不和云中另外的租戶共享。在在 DGX Cloud DGX Cloud 之上,英偉達的之上,英偉達的 AI AI 平臺還包括平臺還包括 AI EnAI Enterprise terprise 和和 AI AI FoundationsFoundations。英偉達 AI Foundations 是一組云服務,可推進企業級生成 AI,并支持跨文本、視覺內容和生物學等領域的用例定制。AI Enterprise 是英偉達 AI 平
134、臺的軟件層,它提供端到端的 AI 框架和預訓練模型,以簡化生產 AI 的開發和部署。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 38 of 53 圖圖 49:通過通過 DGX CLOUD,企業可以輕松構建,企業可以輕松構建AI 能力能力 數據來源:英偉達 DGX CloudDGX Cloud AI AI FoundationsFoundations 主要包含主要包含 3 3 項項服務:服務:NeMoNeMo:文本生成模型構建服務。:文本生成模型構建服務。提供從 80 億到 5300 億個參數的模型,會定期更新額外的訓練數據,幫助企業為客服、企業搜
135、索、聊天機器人、市場情報等生成式 AI 應用進行模型定制。PicassoPicasso:視覺語言模型構建服務。:視覺語言模型構建服務。具有先進的文生圖、文本轉視頻、文本轉 3D 功能,可為產品設計、數字孿生、角色創建等使用自然文本提示的應用快速創建和定制視覺內容。BioNeMoBioNeMo:生命科學服務。:生命科學服務。提供 AI 模型訓練和推理,加速藥物研發中最耗時和成本最高的階段,可加速新蛋白質和治療方法的創建以及基因組學、化學、生物學和分子動力學研究。圖圖 50:DGX CLOUD 可以提供生命科學可以提供生命科學AI 服務服務 數據來源:英偉達 通過通過 DGX CloudDGX C
136、loud,英偉達可以將,英偉達可以將 AIAI 的能力釋放給更多的中小企業。的能力釋放給更多的中小企業。前文已經提到,英偉達的 AI 芯片和 DGX 超級計算機都非常昂貴,中小企業很難大規模部署。而有了 DGX CLOUD 以后,廣大中小企業也可以享受到AI 時代的紅利。這也是云計算的核心優點之一,能夠將昂貴的 IT 服務平民化,加速先進技術的普及。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 39 of 53 5.4.2.英偉達英偉達 Jetson 邊緣計算平臺覆蓋更多場景邊緣計算平臺覆蓋更多場景 英偉達英偉達 JetsonJetson 邊緣計算
137、平臺能夠應用于機器人、智能駕駛、智能制造邊緣計算平臺能夠應用于機器人、智能駕駛、智能制造等應用場景。等應用場景。Jetson 平臺包括 Jetson 模組(外形小巧的高性能計算機)、用于加速軟件的 JetPack SDK,以及包含傳感器、SDK、服務和產品的生態系統,從而加快開發速度。Jetson 平臺具有體積小,功耗低,軟硬件均可裁剪,可定制化程度高,系統開源等優勢。Jetson 系列模組尺寸小巧,但能提供強大 AI 算力,尺寸在 100mm 以內,AI 算力最高可達幾百TOPS,其中 Xavier NX 為 70mm x 45mm,AI 算力為 21TOPS。英偉達在 COMPUTEX 2
138、023 上發布了全新 Jetson AGX Orin 工業級模塊,在惡劣環境下可以提供更高級別的計算能力可在 15-75W 功率范圍內提供高達 248 TOPS 的 AI 性能。圖圖 51:英偉達英偉達 2 2023023 年年推出基于推出基于 OrinOrin 的模組的模組 數據來源:英偉達 JetsonJetson 打造軟件隔離層,降低了軟件遷移成本。打造軟件隔離層,降低了軟件遷移成本。在為開發者提供軟件工具和解決方案 SDK 的同時,英偉達打造了軟件隔離層,最大程度降低了嵌入式平臺上軟件的遷徙成本。英偉達的軟件工具和 SDK,在 Jetson 所有的硬件平臺都是通用的,所以在 Jetso
139、n 硬件平臺的遷徙只需要做再次編譯,無需任何代碼級的改動。圖圖 52:JetsonJetson 具有軟件隔離層具有軟件隔離層 數據來源:英偉達 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 40 of 53 5.5.A AMDMD 正在全力正在全力向英偉達向英偉達發起追趕發起追趕 GPUGPU 市場仍將保持高速增長,英偉達享受市場成長紅利,市場仍將保持高速增長,英偉達享受市場成長紅利,A AMDMD 是唯一競是唯一競爭對手。爭對手。2021 年全球 GPU 行業市場規模為 334.7 億美元,預計 2030 年將達到 4773.7 億美元,預計 2
140、021-2030 年年均復合增長率將達 34.4%。從獨立 GPU 領域來看,英偉達擁有絕對的領導地位,市場份額占比約為81%,AMD 占比約為 19%。圖圖 53:英偉達和英偉達和 A AMDMD 在全球在全球 G GPUPU 市場形成寡頭壟斷格局市場形成寡頭壟斷格局 數據來源:JPR,國泰君安證券研究 在在 A AI I 帶來的算力歷史性機遇下,帶來的算力歷史性機遇下,A AMDMD 正在另辟蹊徑向英偉達奮力追趕。正在另辟蹊徑向英偉達奮力追趕。作為 GPU 領域,英偉達全球唯一一個有分量的競爭對手,AMD 正在嘗試把 CPU 和 GPU 以及大量高速內存封裝在同一個芯片上,稱之為 APU。
141、它通過允許 CPU 和 GPU 共享一個統一的物理內存來實現統一內存,物理內存共享的優勢在于,CPU 可以在 HBM 中存儲數據,而 GPU 可以直接讀取數據。HBM 的帶寬比 CPU 和 GPU 之間的 Infinity(或 PCIe)鏈接要高得多,允許新設計提高性能。這也簡化了插座級別的 HPC 和 AI 編程,因為兩種處理器類型都可以直接訪問同一個內存池。圖圖 54:A AMDMD 創造出了創造出了A APUPU 架構架構 數據來源:AMD 基于基于 A APUPU 架構的架構的 M MI300I300 預計于年底開始預計于年底開始應用于超級計算機應用于超級計算機。在 2023 年81%
142、19%GPU全球市占率英偉達AMD 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 41 of 53 國際超算大會(ISC)上的一臺最新超算(性能達2 exaflop的El Capitan),即將在今年年末啟動,屆時它將取代當前的 Frontier 成為世界最快超算。該超算由 AMD 提供支持,將采用的芯片就是最新的 Instinct MI300。MI300 是一款數據中心 APU,共集成了 13 塊小芯片,大多采用 3D 堆疊方式。MI300 共包括 24 個 Zen 4 CPU 核心,1 個 CDNA 3 圖形引擎和 8個 HBM3 內存,總內存
143、為 128GB。由于晶體管數量達到了 1460 億個,MI300是 AMD 投入生產最大的芯片。其中,九個計算管芯(compute die)由5nm 的 CPU 和 GPU 混合而成,3D 堆疊在四個 6nm 的基本管芯(base die)上。ITF World 2023 半導體大會期間,AMD 提出了一個“30 x25”目標,即到2025年將芯片能效提高30倍,該計劃的關鍵就是Instinct MI300。圖圖 55:MI300MI300 將成為將成為 A AMDMD 的里程碑式產品的里程碑式產品 數據來源:AMD 英偉達英偉達的軟件護城河是的軟件護城河是 A AMDMD 短期內難以超越的。
144、短期內難以超越的。前文在英偉達 CUDA 和Jetson 平臺的介紹中,我們反復提到了,英偉達非常重視軟件生態的建設,不管是底層的編程語言還是應用套件,英偉達都會貼心的準備好,讓應用開發者能夠隨時上手,大幅提升了客戶體驗。同時,在各個垂直應用領域,英偉達都有自己的軟件生態合作伙伴,為它提供基礎的軟件解決方案,這是長時間積累形成的競爭優勢。我們認為,芯片的設計和研發并沒有絕對的技術壁壘,臺積電等代工廠更是對客戶一視同仁,唯有軟件生態的粘性是無法短期超越的,當客戶已經習慣了一種開發環境和程序開發的流程,他就很難轉向另外一個供應商。6.政策、需求雙輪驅動,國內政策、需求雙輪驅動,國內 AI芯片企業蓬
145、勃發展芯片企業蓬勃發展 6.1.AIGAIGC C 拉動拉動 AIAI 算力需求算力需求,AIAI 芯片將成為未來科技石油芯片將成為未來科技石油 隨著 AI 進入“大模型”時代,訓練數據不斷增長、算法復雜度不斷提高,國內人工智能廠商對算力的需求陡升。AI 芯片作為大模型及 AI 應用落地的算力基礎,重要性日益凸顯。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 42 of 53 圖圖 56:AI 芯片產業鏈較為復雜芯片產業鏈較為復雜 數據來源:國泰君安證券研究 廣義的廣義的 AI 芯片指專門用于處理人工智能應用中大量計算任務的模塊,芯片指專門用于處理
146、人工智能應用中大量計算任務的模塊,即面向人工智能領域的芯片均被稱為即面向人工智能領域的芯片均被稱為 AI 芯片。狹義的芯片。狹義的 AI 芯片即針對人芯片即針對人工智能算法做了特殊加速設計的芯片。工智能算法做了特殊加速設計的芯片。狹義的 AI 芯片與傳統芯片(如CPU)相比,性能優勢主要體現在專用性的側重上。AI 芯片主要芯片主要分為三種類型:分為三種類型:通用型通用型(GPU)、半定制型、半定制型(FPGA)、定制、定制型型(ASIC)。三類芯片代表分別有英偉達(NVIDIA)的 GPU、賽靈思的 FPGA 和 Google 的 TPU。GPU 的計算能力最強,但是成本高、功耗高;FPGA
147、可編程,最靈活,但是計算能力不強;ASIC 體積小、功耗低,適合量產,但是研發時間長,且不可編輯,前期投入成本高,帶來一定的技術風險。圖圖 57:AI 芯片分為芯片分為 GPU、FPGA、ASIC 三種類型三種類型 數據來源:國泰君安證券研究 針對不同技術路徑,國內廠商均已有所布局針對不同技術路徑,國內廠商均已有所布局。GPU:國內:國內 GPU 廠商已有部分產品落地,廠商已有部分產品落地,國產國產 GPU 迎來黃金發展迎來黃金發展期期。相比英偉達和 AMD,國內 GPsU 廠商的營收規模較小。但是國產 GPU 正受益于信創的機遇,在數據中心、智能汽車、游戲等應用領域的國產 GPU 需求量也極
148、大提升,國產 GPU 正在迎來黃金發展期。目前景嘉微已成功研發 JM7200 和 JM9 系列 GPU 芯片,應用于臺式機、筆記本、服務器、自助終端等設備。海光信息的DCU也屬于GPGPU的一種,其DCU協處理器全面兼容“類 CUDA”環境,主要部署在服務器集群或數據中心。IP授權授權設計設計晶圓代工晶圓代工AI芯片芯片云端云端/邊緣端邊緣端終端終端訓練訓練推理推理智能汽車智能汽車智能手機智能手機AIoT機器人機器人GPUFPGAASIC定制化程度定制化程度通用型半定制化定制化靈活性靈活性好好不好成本成本高較高低編程語言編程語言/架構架構CUDA,OpenCL等Verilog/VHDL等硬件描
149、述語言,OpenCL、HLS/功耗功耗大較大小主要優點主要優點峰值計算能力強,產品成熟平均性能較高,功耗較低,靈活性強平均性能很強,功耗很低,體積小主要缺點主要缺點效率不高,不可編輯,功耗高量產單價高,峰值計算能力較低,編程語言難度大前期投入成本高,不可編輯,研發時間長,技術風險大主要應用場景主要應用場景云端訓練,云端推理云端推理,終端推理云端訓練,云端推理,終端推理 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 43 of 53 圖圖 58:國內國內 GPU 企業迎來較快發展企業迎來較快發展 數據來源:國泰君安證券研究 CPU+FPGA:國內國內
150、巨頭巨頭紛紛布局紛紛布局 CPU+FPGA 的混合異構的混合異構加速加速 AI計算計算。FPGA 芯片用于加速 AI 計算時可以實現靈活部署,具備可編程性、高并行性、低延遲、低功耗等特點,在 AI 推斷領域潛力巨大。全球科技巨頭紛紛布局云端 FPGA 生態,國內包括騰訊云、阿里云均在 2017 年推出了基于 FPGA 的服務,百度大腦也使用了FPGA 芯片。此前被全球最大 FPGA 廠商賽靈思收購的深鑒科技也是基于 FPGA 來設計深度學習的加速器架構。ASIC:國內國內 ASIC 廠商實力雄厚,廠商實力雄厚,積極追趕積極追趕國外芯片巨頭。國外芯片巨頭。ASIC作為專用集成電路,廣泛應用于人工
151、智能設備等領域,根據終端功能可細分為 TPU 芯片、DPU 芯片和 NPU 芯片等。最具代表性的就是谷歌 2015 年推出的首款 TPU,大幅提升 AI 推理的性能。經過近年來國內 ASIC 廠商的快速發展,在工藝、算力、整體性能等方面,均達到國際領先水平。海思的昇騰 910 在 BF16 浮點算力方面超越谷歌最新一代產品 TPUv4,遂原科技的云燧 T20 和寒武紀的 NPU在整體性能上也與谷歌比肩。未來國內頭部 ASIC 廠商有望繼續保持技術優勢,突破國外廠商在 AI 芯片的壟斷格局。圖圖 59:國內國內 ASIC 廠商實力雄厚,積極追趕國外芯片巨頭廠商實力雄厚,積極追趕國外芯片巨頭 數據
152、來源:國泰君安證券研究 實現專用算法“硬件優化”,實現專用算法“硬件優化”,ASIC 路線路線在在 AI 領域的長期成長性領域的長期成長性值得期值得期待待。ASIC 雖然無法重新編程,且前期投入成本較高,但是在大規模量產的情況下,ASIC 具備性能更強、體積更小、功耗更低、成本更低、可靠性更髙等優點。隨著人工智能技術發展成熟、算法逐漸收斂,ASIC將更具備一定競爭優勢。公司名稱產品圖公司產品及介紹景嘉微(300474.SZ)景嘉微作為國產GPU龍頭,已成功自主研發了一系列GPU芯片,包括JM54系列、JM72系列、JM92系列三代GPU產品。公司于 2014 年成功研發出國內首顆國產高性能、低
153、功耗 GPU 芯片 JM5400,打破了國外產品長期壟斷我國 GPU 市場的局面,并不斷研發更為先進的JM7200 和 JM9 系列。2022 年 5 月,公司 JM9 系列第二款圖形處理芯片成功研發,可以滿足地理信息系統、媒體處理、CAD 輔助設計、游戲、虛擬化等高性能顯示需求和人工智能計算需求,可廣泛應用于用于臺式機、筆記本、一體機、服務器、工控機、自助終端等設備。海光信息(688041.SH)海光 DCU 系列產品以基于通用的GPGPU架構,采用7nm工藝,兼容“類CUDA”環境以及國際主流商業計算軟件和人工智能軟件,軟硬件生態豐富。目前海光DCU系列產品深算一號已經實現商業化應用,于2
154、021年實現規?;鲐?,未來將廣泛應用于大數據處理、人工智能、商業計算等領域,其產品性能達到了國際上同類型主流高端處理器的水平,具有較強的并行計算能力和較高的能效比,在國內處于領先地位。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 44 of 53 圖圖 60:FPGA 方案及方案及 ASIC 方案成本曲線存在差異方案成本曲線存在差異 數據來源:頭豹研究院 6.2.國內國內 AIAI 芯片企業蓬勃發展芯片企業蓬勃發展 在在政策和需求政策和需求的的雙重雙重促進下促進下,中國中國 AI 芯片廠商奮起直追芯片廠商奮起直追,尤其在,尤其在 ASIC方向發展
155、機遇較大方向發展機遇較大。整體上看,國外芯片巨頭目前仍處于領先地位,占據了大部分市場份額,并且在 GPU 和 FPGA 方面近乎壟斷。但國內 AI芯片廠商在政策和需求的雙重拉動下奮起直追,華為海思、地平線、寒武紀、海光信息、昆侖芯等廠商在多個領域取得突破進展。尤其在 ASIC 路線下,國內廠商有機會實現快速搶占市場。圖圖 61:國內國內 AI 芯片廠商正在快速發展芯片廠商正在快速發展 數據來源:國泰君安證券研究 6.2.1.國內國內 AI 芯片企業百花齊放芯片企業百花齊放 寒武紀寒武紀:AI 芯片獨角獸,中國芯片獨角獸,中國 ASIC 路線先行者。路線先行者。寒武紀成立于 2016年,是全球
156、AI 芯片領域第一個獨角獸初創公司,研發團隊成員主要來自于中科院,董事長陳天石曾任中科院計算所研究員。圖圖 62:寒武紀推出:寒武紀推出訓推一體訓推一體 AI 加速卡加速卡 MLU370-X8,搭載雙芯,搭載雙芯思元思元 370 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 45 of 53 數據來源:寒武紀官網 作為作為 AI 芯片領域芯片領域的的獨角獸,寒武紀曾與華為攜手打造全球首款手機獨角獸,寒武紀曾與華為攜手打造全球首款手機 AI芯片,近年來芯片,近年來通過通過專注打造云端產品專注打造云端產品線構建技術壁壘線構建技術壁壘。云端:AI 芯片寒
157、武紀近年來不斷推出面向云端的 AI 芯片,思元 290是寒武紀首款面向云端訓練的智能芯片,思元 370 面向云端且實現訓推一體,這兩款芯片均采用 7nm 制程工藝。此外,思元 370 是寒武紀首款采用 Chiplet 技術的 AI 芯片,寒武紀第二代云端推理產品思元 270 算力的 2 倍。終端:2016 年,寒武紀發布了全球首款終端 AI 處理器、首款商用NPU“寒武紀 1A”,面向智能手機、安防監控、可穿戴設備、無人機和智能駕駛等各類終端設備,主流智能算法能耗比全面超越傳統CPU、GPU。寒武紀 1A 被應用于全球首款智能手機 AI 芯片麒麟 970。圖圖 63:寒武紀已經推出了多款云端、
158、邊緣端芯片及加速卡寒武紀已經推出了多款云端、邊緣端芯片及加速卡 數據來源:寒武紀年報 華為海思華為海思:昇騰騰代表業界最強代表業界最強 AI 算力算力。思半導體成立于 2004 年 10 月,是華為的全資子公司。得益于母公司的強勢全力支持和持續的高研發投入,海思已成為全球領先的 Fabless 半導體公司,產品覆蓋智慧視覺、AIoT、智慧媒體、智慧交通及汽車電子、顯示、手機終端、數據中心及 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 46 of 53 光收發器等多個領域。圖圖 64:海思半導體布局三大智慧場景海思半導體布局三大智慧場景 數據來源:
159、海思半導體官網 昇騰系列騰系列面向“端、邊、云”面向“端、邊、云”全棧全場景全棧全場景 AI 芯片,代表著芯片,代表著業界業界最最強強 AI 算力,采用華為自研的達芬奇架構,對標國際巨頭谷歌英偉達。算力,采用華為自研的達芬奇架構,對標國際巨頭谷歌英偉達。2018 年,華為提出了全棧全場景 AI 解決方案并發布了兩款 AI 芯片,昇騰 910 和昇騰 310,其計算核心采用華為自研的面向 AI 計算特征的“達芬奇架構”。昇騰 910 是單芯片計算密度最大的芯片,對標英偉達 V100和谷歌 TPUv3,比 V100 的標稱算力 125TOPS 高出約一倍,而昇騰 310芯片的最大功耗僅 8W,是極
160、致高效計算低功耗 AI 芯片?;跁N騰系列AI 處理器,華為推出 Atlas 全系列、全息感知產品,覆蓋端側、邊緣側和數據中心側。圖圖 65:華為海思實力雄厚,已推出華為海思實力雄厚,已推出昇騰騰 310 和和昇騰騰 910 等產品 數據來源:海思半導體官網 地平線地平線:國內車載芯片領頭羊。:國內車載芯片領頭羊。地平線成立于 2015 年,是一家注重軟硬件結合的 AI 創業公司,致力于開發邊緣 AI 芯片及相關解決方案,由Intel、嘉實資本、高瓴資本領投。提出嵌入式提出嵌入式 AI 芯片架構芯片架構 BPU,堅持“芯片,堅持“芯片+算法算法+工具鏈”完整解決方工具鏈”完整解決方案。案。20
161、17 年 12 月,地平線自主設計研發了中國首款嵌入式人工智能視覺芯片旭日系列和征程系列,基于自研 BPU 架構,通過軟硬結合打造極致性能。目前,地平線是業界唯一能夠提供覆蓋從 L2 到 L4 全場景整車智能芯片方案的人工智能平臺型企業。圖圖 66:地平線采用自研地平線采用自研 BPU 架構架構 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 47 of 53 數據來源:地平線官網 旭日系列是面向智能攝像頭的處理器,具備在前端實現大規模人臉檢測跟蹤、視頻結構化的處理能力,可廣泛用于智能城市、智能商業等場景。征程系列是面向自動駕駛的處理器,可同時對行人
162、、機動車、非機動車、車道線交通標識等多類目標進行精準的實時監測和識別,實現 FCW/LDW/JACC 等高級別輔助駕駛功能。圖圖 67:地平線已推出征程、旭日等多個產品系列地平線已推出征程、旭日等多個產品系列 數據來源:地平線官網,國泰君安證券研究 海光信息海光信息:國產:國產 CPU+DCU 龍頭,性能達國際化可比水平龍頭,性能達國際化可比水平。光信息成立于 2014 年,公司骨干研發人員多擁有國內外知名芯片公司的就職背景,擁有成功研發 x86 處理器或 ARM 處理器的經驗。CPU+DCU 雙輪驅動,雙輪驅動,實現實現領先領先的處理器的處理器性能。性能。海光信息的產品包括海光通用處理器(C
163、PU)和海光協處理器(DCU)。海光 DCU 系列產品以基于通用的 GPGPU 架構,采用 7nm 工藝,兼容“類 CUDA”環境以及國際主流商業計算軟件和人工智能軟件,軟硬件生態豐富。目前海光DCU 系列產品深算一號已經實現商業化應用,于 2021 年實現規?;鲐?,未來將廣泛應用于大數據處理、人工智能、商業計算等領域,其產品性能達到了國際上同類型主流高端處理器的水平,具有較強的并行計算能力和較高的能效比,在國內處于領先地位。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 48 of 53 圖圖 68:海光信息已推出高端處理器產品海光信息已推出高端
164、處理器產品 數據來源:海光信息年報 6.2.2.AI 芯片乃兵家必爭之地,芯片乃兵家必爭之地,BAT均已有所布局均已有所布局 對于互聯網大廠來說,騰訊、百度、阿里巴巴等均在 AI 芯片領域大力布局。其中,騰訊投資燧原科技、百度投資昆侖芯、阿里巴巴則孵化了平頭哥。除此之外,原 AMD 全球 GPGPU 設計總負責人陳維良成立了沐曦集成電路,兩位 CTO 均為前 AMD 首席科學家;原 AMD 首席工程師鄭金山成立了天數智芯,首席技術官曾任三星全球副總裁;原商湯科技總裁張文成立了壁仞科技,CTO 曾任職于海思的 GPU 自研團隊。燧原科技燧原科技(騰訊系):(騰訊系):燧原科技成立于 2018 年
165、,公司創始人趙立東曾任紫光通信科技集團有限公司副總裁、AMD 計算事業部高級總監;COO張亞林曾任 AMD 資深芯片經理、技術總監。邃思邃思 2.0 是迄今中國最大的是迄今中國最大的 AI 計算芯片。計算芯片。公司成立以來,已相繼推出云端 AI 訓練芯片邃思 1.0/2.0、云端 AI 訓練加速卡云燧 T1x/T2x 和 AI 推理加速卡云燧 i1x/i2x,以及配套的“馭算”軟件編程平臺 TopsRider 和“鑒算”推理加速引擎 TopsInference。公司 2021 年在世界人工智能大會期間發布的邃思 2.0 是迄今中國最大的 AI 計算芯片。圖圖 69:燧原科技燧原科技推出推出云燧
166、云燧 T2x 系列云端系列云端 AI 加速卡加速卡 數據來源:燧原科技官網 自研自研軟硬件協同架構設計軟硬件協同架構設計,靈活通用靈活通用高效開發。高效開發。燧原芯片架構采用“GCU-CARA”(通用計算單元和全域計算架構),是分別基于硬件的通用計算單元 GCU 和基于軟件的馭算 TopsRider 兩個主要品牌,具備完全可編程、全模式計算、全精度計算、高并行度等特點。其軟件編程平臺馭算 TopsRider 和推理加速引擎鑒算 Topsinference 可支持 TensorFlow、PyTorch、ONNX 等主流模型框架。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀
167、正文之后的免責條款部分 49 of 53 圖圖 70:燧原科技燧原科技自研自研軟硬件協同架構設計軟硬件協同架構設計 數據來源:燧原科技官網 昆侖芯昆侖芯(百度系):(百度系):昆侖芯成立于 2011 年,前身為百度智能芯片及架構部,于 2021 年 4 月完成獨立融資。公司團隊成員多數成員來自百度、高通、Marvell、Tesla 等行業頭部公司,22 年完成 A 輪融資。圖圖 71:昆侖芯已發布昆侖芯已發布 1 代和代和 2 代芯片代芯片 數據來源:昆侖芯官網 百度百度基于自研基于自研 XPU 架構,致力打造通用架構,致力打造通用 AI 芯片,芯片,賦能互聯網、工業制賦能互聯網、工業制造、智
168、慧金融、智慧交通等造、智慧金融、智慧交通等多個多個領域。領域。百度從 2011 年開始就基于 FPGA實現 AI 加速公司于 2018 年正式開始 AI 芯片研發并在 2020 年實現昆侖芯 1 代芯片大規模部署,2021 年 8 月昆侖芯 2 代產品實現量產。昆侖芯采用自研的面向通用 AI 的 XPU 架構,其第二代昆侖芯產品采用 7nm 制程,相比 1 代產品性能提升 2-3 倍,FP16 算力達到 128TFLOPS,主要為數據中心高性能計算 提供算力支持。同時,昆侖芯 深度適配PaddlePaddle(飛槳),也支持 PyTorch、TensorFlow、ONNX 等主流的深度學習框架
169、。圖圖 72:昆侖芯深度適配多個主流深度學習框架昆侖芯深度適配多個主流深度學習框架 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 50 of 53 數據來源:昆侖芯官網 平頭哥(阿里系):平頭哥(阿里系):平頭哥成立于 2018 年,由阿里全資收購的中天微與達摩院芯片研發團隊合并而來,公司技術團隊由原中天微、高通、AMD、華為海思等擁有豐富研發經驗的人員構成。作為擁有國內公有云市場最大份額的企業,阿里自研作為擁有國內公有云市場最大份額的企業,阿里自研 AI 芯片投入最多、芯片投入最多、決心極大決心極大,致力于,致力于云端一體化芯片云端一體化芯片和和
170、 AIoT芯片產品芯片產品。公司有兩條研發主線,分別聚焦于云計算和嵌入式兩類芯片:利用 ARM的IP為阿里云數據中心研發芯片,在云端提供普惠算力,即倚天系列和含光系列;基于RISC-V處理器架構進行研發,如玄鐵系列,主要應用是在 AIoT領域。圖圖 73:平頭哥推出平頭哥推出云端云端 AI 推理芯片推理芯片含光含光 800 數據來源:平頭哥官網 含光含光 800 專用于云端視覺處理。專用于云端視覺處理。2019 年平頭哥在云棲大會上發布 AI 推理芯片含光 800,為 TSMC12nm 工藝制程,采用平頭哥自研架構和達摩院算法,算力相當于 10 個 GPU,性能峰值算力達 820 TOPS。含
171、光 800 AI芯片專用于云端視覺處理,可在視覺圖像識別/分類/搜索、醫療影像、城市監控等領域發揮作用。為了實現軟硬件協同,平頭哥提供了 HGAI軟件開發包,可支持主流開源框架 TensorFlow、Caffe、MXNet 和 ONNX,廣泛適用于語音、圖片、視頻等 AI 推理業務。圖圖 74:為了實現軟硬件協同,平頭哥提供為了實現軟硬件協同,平頭哥提供 HGAI 軟件開發包軟件開發包 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 51 of 53 數據來源:平頭哥官網 雖然雖然 BAT均已布局均已布局 AI 芯片,但具體路徑也各有特色。芯片,但具
172、體路徑也各有特色。百度選擇了拆分芯片業務,阿里的云端高性能芯片自用,RISC-V 芯片開源開放,騰訊主要以投資的方式,用盡可能少的投入撬動自研芯片。除 AI 芯片本身的硬件之外,與之配套的軟件開發體系亦是生態的重要組成部分,包括底層硬件、指令集架構、編譯器、API、基礎庫、頂層算法框架和模型等。由于全球主流深度學習框架均使用 CUDA 平臺,因此國內 AI 芯片廠商在生態構建的初期均需兼容 CUDA,但是長期國產 AI 芯片廠商仍需構筑自身軟硬件生態。7.投資建議投資建議 由于海量數據處理需求激增、AI 模型算法漸趨復雜以及算力投資具備的強經濟效益,AI 算力產業的長期發展前景廣闊,迎來投資機
173、遇。AI 服務器是 AI 算力產業價值量的最大體現,中國 AI 服務器整機廠商增速領跑全球,AI 服務器整機環節受益標的包括浪潮信息、紫光股份、中科曙光、拓維信息等;AI 芯片是 AI 算力產業的核心競爭力,中國廠商正在奮力直追海外龍頭公司,AI 芯片受益標的包括寒武紀、海光信息、景嘉微等。8.風險提示風險提示 1)下游需求不及預期的風險下游需求不及預期的風險 AI 計算產業下游需求目前仍以政企客戶為主,若未來政企客戶購買力受到沖擊,可能出現下游需求不及預期的風險。2)核心元器件受制裁的風險核心元器件受制裁的風險 AI 計算核心元器件數據科技前沿領域,對半導體先進制程有一定以來,若未來海外制裁
174、加劇,可能帶來核心元器件斷供風險。3)市場競爭加劇的風險市場競爭加劇的風險 AI 計算行業尚處于發展早期階段,未來市場競爭有可能加劇。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 52 of 53 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 53 of 53 本公司具有中國證監會核準的證券投資咨詢業務資格 分析師聲明分析師聲明 作者具有中國證券業協會授予的證券投資咨詢執業資格或相當的專業勝任能力,保證報告所采用的數據均來自合規渠道,分析邏輯基于作者的職業理解,本報告清晰準確地反映了作者的研究觀點,力求
175、獨立、客觀和公正,結論不受任何第三方的授意或影響,特此聲明。免責聲明免責聲明 本報告僅供國泰君安證券股份有限公司(以下簡稱“本公司”)的客戶使用。本公司不會因接收人收到本報告而視其為本公司的當然客戶。本報告僅在相關法律許可的情況下發放,并僅為提供信息而發放,概不構成任何廣告。本報告的信息來源于已公開的資料,本公司對該等信息的準確性、完整性或可靠性不作任何保證。本報告所載的資料、意見及推測僅反映本公司于發布本報告當日的判斷,本報告所指的證券或投資標的的價格、價值及投資收入可升可跌。過往表現不應作為日后的表現依據。在不同時期,本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司不保證本報告
176、所含信息保持在最新狀態。同時,本公司對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本報告中所指的投資及服務可能不適合個別客戶,不構成客戶私人咨詢建議。在任何情況下,本報告中的信息或所表述的意見均不構成對任何人的投資建議。在任何情況下,本公司、本公司員工或者關聯機構不承諾投資者一定獲利,不與投資者分享投資收益,也不對任何人因使用本報告中的任何內容所引致的任何損失負任何責任。投資者務必注意,其據此做出的任何投資決策與本公司、本公司員工或者關聯機構無關。本公司利用信息隔離墻控制內部一個或多個領域、部門或關聯機構之間的信息流動。因此,投資者應注意,在法律許可的情況
177、下,本公司及其所屬關聯機構可能會持有報告中提到的公司所發行的證券或期權并進行證券或期權交易,也可能為這些公司提供或者爭取提供投資銀行、財務顧問或者金融產品等相關服務。在法律許可的情況下,本公司的員工可能擔任本報告所提到的公司的董事。市場有風險,投資需謹慎。投資者不應將本報告作為作出投資決策的唯一參考因素,亦不應認為本報告可以取代自己的判斷。在決定投資前,如有需要,投資者務必向專業人士咨詢并謹慎決策。本報告版權僅為本公司所有,未經書面許可,任何機構和個人不得以任何形式翻版、復制、發表或引用。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并注明出處為“國泰君安證券研究”,且不得對本報告進
178、行任何有悖原意的引用、刪節和修改。若本公司以外的其他機構(以下簡稱“該機構”)發送本報告,則由該機構獨自為此發送行為負責。通過此途徑獲得本報告的投資者應自行聯系該機構以要求獲悉更詳細信息或進而交易本報告中提及的證券。本報告不構成本公司向該機構之客戶提供的投資建議,本公司、本公司員工或者關聯機構亦不為該機構之客戶因使用本報告或報告所載內容引起的任何損失承擔任何責任。評級說明評級說明 評級評級 說明說明 1.1.投資建議的比較標準投資建議的比較標準 投資評級分為股票評級和行業評級。以報告發布后的 12 個月內的市場表現為比較標準,報告發布日后的 12 個月內的公司股價(或行業指數)的漲跌幅相對同期
179、的滬深 300 指數漲跌幅為基準。股票投資評級股票投資評級 增持 相對滬深 300 指數漲幅 15%以上 謹慎增持 相對滬深 300 指數漲幅介于 5%15%之間 中性 相對滬深 300 指數漲幅介于-5%5%減持 相對滬深 300 指數下跌 5%以上 2.2.投資建議的評級標準投資建議的評級標準 報告發布日后的 12 個月內的公司股價(或行業指數)的漲跌幅相對同期的滬深300 指數的漲跌幅。行業投資評級行業投資評級 增持 明顯強于滬深 300 指數 中性 基本與滬深 300 指數持平 減持 明顯弱于滬深 300 指數 國泰君安證券研究國泰君安證券研究所所 上海上海 深圳深圳 北京北京 地址 上海市靜安區新閘路 669 號博華廣場20 層 深圳市福田區益田路 6003 號榮超商務中心 B 棟 27 層 北京市西城區金融大街甲 9 號 金融街中心南樓 18 層 郵編 200041 518026 100032 電話(021)38676666(0755)23976888(010)83939888 E-mail: