《科技行業專題研究:AI2.0十年之后我們還能做什么-230626(262頁).pdf》由會員分享,可在線閱讀,更多相關《科技行業專題研究:AI2.0十年之后我們還能做什么-230626(262頁).pdf(262頁珍藏版)》請在三個皮匠報告上搜索。
1、 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。1 證券研究報告 科技 科技 AI 2.0:十年之后我們還能做什么:十年之后我們還能做什么 華泰研究 華泰研究 科技 科技 增持 增持(維持(維持)研究員 黃樂平,黃樂平,PhD SAC No.S0570521050001 SFC No.AUZ066 +(852)3658 6000 研究員 謝春生謝春生 SAC No.S0570519080006 SFC No.BQZ938 +(86)21 2987 2036 研究員 朱珺朱珺 SAC No.S0570520040004 SFC No.BPX711 +(86)10 6321 1166
2、 研究員 余熠余熠 SAC No.S0570520090002 SFC No.BNC535 +(86)755 8249 2388 研究員 陳旭東陳旭東 SAC No.S0570521070004 SFC No.BPH392 +(86)21 2897 2228 研究員 丁寧丁寧 SAC No.S0570522120003 +(86)21 2897 2228 研究員 張皓怡張皓怡 SAC No.S0570522020001 +(86)21 2897 2228 聯系人 王興王興 SAC No.S0570121070161 +(86)21 3847 6737 聯系人 張宇張宇 SAC No.S0570
3、121090024 SFC No.BSF274 +(86)10 6321 1166 聯系人 王心怡王心怡 SAC No.S0570121070166 SFC No.BTB527 +(86)21 2897 2228 聯系人 權鶴陽權鶴陽 SAC No.S0570122070045 +(86)21 2897 2228 聯系人 于可熠于可熠 SAC No.S0570122120079 +(86)21 2897 2228 2023 年 6 月 26 日中國內地 專題研究專題研究 AI 大模型展現驚人能力,有望成為下一代通用技術平臺大模型展現驚人能力,有望成為下一代通用技術平臺 2010 年,麻省理工大
4、學阿齊默魯教授等提出了科技發展如何影響人類就業的分析框架。當前,隨著以 GPT-4 為代表的大語言模型的出現,AI 開始具備文本生成、語言理解、知識問答、邏輯推理等能力,AI 大模型出現通用性強、固定成本高但邊際成本遞減等平臺性技術的顯著特征,未來有可能大規模替代當前人類的工作。因此,我們認為現在是重新思考人工智能將如何影響工作和投資的又一重要時刻。我們認為:1)大模型對人類工作的替代將從常規性的腦力勞動開始,金融法律服務、軟件外包、傳媒等工作可能最先被影響。2)從投資角度,建議按照算力基礎設施-硬件載體-大模型平臺-應用的順序尋找受益標的。投資機會投資機會#1:科技巨頭在大模型上競爭激化,芯
5、片等送水人最先受益:科技巨頭在大模型上競爭激化,芯片等送水人最先受益 我們認為,算力需求增長會率先利好芯片、光模塊、服務器產業鏈等送水人。根據 OpenAI 測算,目前算力的增速(翻 1 倍/3-4 個月)遠超過摩爾定律(翻 1 倍/18-24 個月),未來 AI 應用的逐步豐富,將推動推理芯片等相關市場保持強勁增長。我們預計 2025 年左右當生成式 AI 應用大規模落地后,用于數據中心的推理及訓練芯片市場約 900 億美元,帶來先進代工、先進封裝、光模塊、服務器在內相關產業鏈機會。投資機會投資機會#2:誰會成為誰會成為 2.0 時代的硬件載體?時代的硬件載體?回顧消費電子硬件的發展歷程,硬
6、件的升級和應用的發展往往相互促進。年初以來,ChatGPT Plugins 和 Auto GPT 已讓我們在應用層面看到了大語言模型的潛力,有望催化智能終端的發展。一方面,大模型將為智能手機、PC 平板、音箱等帶來新功能,推動硬件規格升級;另一方面也有望催化 AR/VR、無人駕駛汽車、機器人等新的硬件形態,帶動產業鏈發展。長期來看,或將形成同時擁有 1)超強感知能力,2)通用人工智能(AGI)和 3)靈活的行動能力的硬件產品。雖然離大規模應用仍有距離,但長期來看,建議關注機器人等終端成為 AI2.0 時代的主流載體。投資機會投資機會#3:世界最后需要幾家大模型公司?:世界最后需要幾家大模型公司
7、?我們認為,大語言模型是一個資本密集、人才密集和數據密集的產業,是否擁有大語言模型將成為衡量科技企業甚至衡量國家綜合實力的重要尺度之一。當前全球大模型呈現“百模大戰”的競爭格局,我們認為最終可能會收斂到國內外各數家的寡頭競爭格局。在“百模大戰”中最終勝出的企業,有望成為可以類比當前百度、阿里、騰訊體量的科技平臺型企業。是否能形成“數據-模型-應用”的飛輪是判斷大模型企業能否在競爭中勝出的重要標準之一。投資機會投資機會#4:最大機會在行業,看好互聯網、辦公、金融等行業落地:最大機會在行業,看好互聯網、辦公、金融等行業落地 我們認為,AI 2.0 最大的投資機會在應用,AI 落地的節奏或和行業數字
8、化程度成正比,看好互聯網(搜索+廣告營銷)、辦公、金融,教育等行業率先迎來“iPhone 時刻”,關注大模型在:1)電商、金融、醫療等行業替代傳統客服;2)文本和圖像生成在辦公、廣告營銷、金融、影視游戲等領域成為下一代生產力工具;3)多模態能力在新藥開發等科研上的應用前景。風險提示:宏觀經濟波動;新技術滲透進度不及預期;中美貿易摩擦加??;本研報中涉及到未上市公司或未覆蓋個股內容,均系對其客觀公開信息的整理,并不代表本研究團隊對該公司、該股票的推薦或覆蓋。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。2 科技 科技 正文目錄正文目錄 AI 2.0:十年之后我們還能做什么十年之后我們
9、還能做什么.4 AI 2.0 是下一代通用技術平臺.5 投資機會#1:算力需求增長利好芯片送水人.7 投資機會#2:誰會成為 2.0 時代的硬件載體?.9 投資機會#3:世界最后需要幾家大模型公司?.10 投資機會#4:如何把握大模型應用的投資機會.11 2023 年十大投資機會.14 AI 大模型企業是如何煉成的大模型企業是如何煉成的.16 海外大模型:微軟&OpenAI、谷歌、英偉達、Meta、AWS.16 國內大模型:百度、阿里、騰訊、華為、商湯、訊飛.31 相關未上市公司:智譜、MiniMax、第四范式、聆心智能、瀾舟科技、云知聲、擴博智能.44 算力:算力:AI 應用如何拉動需求變化
10、應用如何拉動需求變化.46 大模型對訓練/推理算力需求的測算.47 計算芯片:算力儲備競賽開啟,推理初步具備進口替代能力.49 服務器:AI 服務器市場穩步增長,2021-2026E CAGR 預計達 17%.54 先進封裝&材料:高算力需求帶動先進封裝需求.56 光模塊:數據中心市場空間廣闊,2023 年有望迎 800G 放量元年.57 服務器產業鏈相關公司:工業富聯、環旭電子.60 計算芯片產業鏈相關公司:燧原科技、壁仞科技、寒武紀、京微齊力、芯動科技、沐曦集成電路、海光信息、登臨科技、中科馭數、摩爾線程、天數智芯、高云半導體、墨芯人工智能、智多晶、云天暢想.60 光通信產業鏈相關公司:長
11、光華芯、源杰科技、云嶺光電、蘇州熹聯、天孚通信、中際旭創.64 云計算產業鏈相關公司:道客云、鵬云網絡、StreamNative.66 AI 賦能百業:產業變革的奇點賦能百業:產業變革的奇點.68 AI+企業服務:賦能生產力/溝通/協作工具.68 AI+汽車:AI 大模型加速無人駕駛發展.70 AI+工業:ChatGPT 引領 AI 賦能工業,工業智能化水平或將加速提升.75 AI+金融:坐擁數據富礦,有望成為 AI 大模型率先落地的垂直領域之一.79 AI 賦能傳媒:賦能傳媒:AIGC 應用鵬程萬里應用鵬程萬里.83 AI+游戲:降本增效持續驗證,AI 新玩法嘗試創新.83 AI+電商:多場
12、景應用,降本增效提升體驗.87 AI+影視:驅動影視創作升級.92 產業鏈相關公司:昆侖萬維、湯姆貓、藍色光標、焦點科技、華策影視等.98 AI for Science:人工智能助力科學探索的新范式:人工智能助力科學探索的新范式.100 AI+新藥開發:根據功能需求設計/優化蛋白質,加速新藥探索速度.101 AI+量子:優化軟硬件設計,提升量子技術應用的效率與準確性.103 AI+核聚變:精準調控核聚變控制過程,降低開發周期.105 AI+材料科學:逆向設計是 AI 助力材料研發創新的主要范式.106 AI for Science產業鏈相關公司:國儀量子、本源量子、訊飛醫療、BrainCo、腦
13、虎科技.108 附錄:附錄:AI 大模型算法的前世今生大模型算法的前世今生.110 溯源:從經典神經網絡到 Transformer 架構.111 發展:從 GPT-1 到 GPT-4,開啟大模型新紀元.115 海外落地:BloombergGPT、AutoGPT、SAM.127 附錄:附錄:AI 大模型需要什么數據大模型需要什么數據?.132 數據將是未來 AI 大模型競爭的關鍵要素.132 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。3 科技 科技 海外主要大模型數據集.132 中國主要 AI 大模型數據集.138 高質量語言數據和圖像數據或將耗盡,合成數據有望生成大模型數據.
14、145 數據產業鏈投資機會:數據生產環節、數據處理環節.146 數據服務相關公司:百度智能云、慧聽、標貝、它思、Appen、Telus international、Scale AI.148 半導體國產化:供需錯配推動半導體制造國產化加速半導體國產化:供需錯配推動半導體制造國產化加速.150 中國半導體供需錯配,國產替代主要集中在設計、封測等環節.150 機會#1 半導體設備:關注先進制程突破以及國產化率提升.155 機會#2 半導體設備零部件:國產化地位開始受到重視.161 機會#3 材料:國產基礎較好,掩模版、光刻膠國產化率較低.166 半導體產業鏈未上市公司:悅芯科技、華封科技、先鋒半導體
15、、御微半導體、世禹精密、漢驊半導體、佑倫真空、富樂華半導體、泰科天潤、銳杰微科技.172 汽車智能化:紅海競爭的破局點汽車智能化:紅海競爭的破局點.175 智能駕駛:高級別輔助駕駛蓄勢待發,國產供應商受益.175 智能座艙:從 4.0 多模態到 5.0 大模型,座艙智能化全面升級.180 車載芯片相關公司:地平線、黑芝麻智能、芯馳科技、芯擎科技,旗芯微.186 域控及數據標注相關公司:德賽西威、經緯恒潤、縱目科技、魔視智能、宏景智駕、柏川數據.187 連接器相關公司:電連技術、瑞可達.188 傳感器相關公司:加特蘭、森思泰克、行易道、禾賽科技、速騰聚創、圖達通、探維科技、靈明光子.189 AR
16、-HUD 相關公司:澤景科技、未來黑科技.191 商業航天:大年開啟,關注行業機遇商業航天:大年開啟,關注行業機遇.192 技術端:火箭、衛星制造技術均有突破.192 需求側:行業需求加快落地.203 政策面:利好政策頻出,投融資穩健增長.210 火箭相關公司:星際榮耀、星河動力、藍箭航天、深藍航天、中科宇航、天兵科技、凌空天行、東方空間.214 衛星制造相關公司:銀河航天、長光衛星、時空道宇、工大衛星、國博電子、鋮昌科技、海格通信、天銀機電.215 地面設備相關公司:震有科技、航天馭星、信科移動.216 衛星運營服務相關公司:中國星網、中國衛通、航天宏圖、中科星圖.217 元宇宙元宇宙 20
17、23:蘋果這次有什么不同?蘋果這次有什么不同?.218 Meta Oculus 的失敗教訓.218 蘋果帶來的變化.221 生成式 AI 可能帶來哪些變化.227 海外公司:英偉達,Epic games,Unity.230 整機品牌:Nreal、亮亮視野、Rokid、亮風臺、大朋 VR.233 光模組領域:鯤游、耐德佳、至格、JBD、視涯、宏禧科技、賽富樂斯、熙泰、研鼎、藍特光學.235 Web3:過去一年發生了什么?:過去一年發生了什么?.241 Web3:以所有權為核心的價值網絡.241 風險事件頻發,加密合規時代已至.243 基礎設施層:寒冬孕育機遇,Web3 基礎設施創新持續.247
18、應用層:市場回歸冷靜,關注 Web3 與真實世界連接.249 未來展望:Web3 離我們還有多遠?.255 Web3產業鏈相關公司:趣鏈科技、矩陣元.256 風險提示.257 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。4 科技 科技 AI 2.0:十年之后我們還能做什么十年之后我們還能做什么 2010 年,麻省理工大學應用經濟學教授達隆阿齊默魯(Daron Acemoglu)等人在論文1中提出了科技發展如何影響人類就業和收入的分析框架(圖 1)。當前,隨著以 GPT-4 為代表的新一代 AI 技術的出現,人類正面臨重新思考人工智能將如何影響我們今后工作生活的又一重要時刻。參考
19、阿齊默魯教授的模型和咨詢公司埃森哲近期關于工作受到生成式 AI 影響大小的研究結果2,我們把十個主要行業根據:1)工作方式是腦力為主還是體力為主,(2)工作內容是常規性還是非常規性進行劃分,歸納了不同性質工作受到生成式 AI 影響的程度。我們認為,隨著 AI 能力的不斷增強,大語言模型(LLM)將從金融法律服務、軟件外包等常規性的腦力工作開始,逐步替代人類工作。圖表圖表1:AI 2.0 時代,生成式時代,生成式 AI 或將逐步代替人類工作或將逐步代替人類工作 資料來源:Acemoglu and Autor(2010)Skills,Tasks and Technologies:Implicati
20、ons for Employment and Earnings,埃森哲,華泰研究 具體結論如下:1)常規性的腦力勞動容易被算法替代。常規性的腦力勞動容易被算法替代。這具體包括金融法律服務、軟件外包、傳媒等白領工作。這些工作需要收集,分析和解釋大量基于語言的數據和信息,且含有較多重復性的知識勞動,與大語言模型的文本理解/生成以及邏輯推理能力高度重合,受到生成式 AI的影響可能較大;1 Acemoglu,D.,&Autor,D.(2011).Skills,tasks and technologies:Implications for employment and earnings.In Handb
21、ook of labor economics(Vol.4,pp.1043-1171).2 Accenture(2023).A new era of generative AI for everyone.免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。5 科技 科技 2)非常規性的腦力活動較難被算法替代。非常規性的腦力活動較難被算法替代。相較白領工作,新藥開發等科研工作需要更高層次的認知和創造力,并且工作內容多變,難以被算法替代,受到生成式 AI 的影響較白領更??;3)常規性的體力勞動容易被自動化技術替代。常規性的體力勞動容易被自動化技術替代。在零售、制造等行業中,雖然涉及的語言相關
22、工作不多,受生成式 AI 的影響不大,但工作中有較多重復且任務標準化程度高的內容,容易被機器人等自動化技術所替代;4)非常規性的體力勞動受影響較小。非常規性的體力勞動受影響較小。建筑、餐飲旅游及交運、采礦等行業雖然也包含較多的體力勞動,但難以被自動化的長尾場景較多,目前看來,受到生成式 AI 和機器人技術的影響都較小。AI 2.0 是下一代通用技術平臺是下一代通用技術平臺 我們認為以 ChatGPT 為代表的大語言模型的出現,使人工智能技術的發展進入了 2.0 時代。AI 大模型已經具備 1)通用性強,2)固定成本高但邊際成本遞減等平臺性技術的顯著特征,有望成為繼 PC,移動互聯網,云計算,電
23、動車之后,下一個支撐科技創新的通用技術平臺。如下圖所示,每一代通用技術平臺的出現,都會伴隨幾家平臺性公司的出現。這具體包括,1)主機時代的 IBM,2)PC 時代的微軟和 Intel(Wintel),3)智能手機時代的蘋果和谷歌,4)云計算時代的亞馬遜和英偉達,5)智能電動車時代的特斯拉和寧德時代。當我們進入 AI 大模型時代,我們認為,以微軟為代表的大模型廠商和以英偉達為代表的算力提供方有望受益于 AI2.0 的崛起,實現平臺擴張。圖表圖表2:AI 2.0 是下一代通用技術平臺是下一代通用技術平臺 資料來源:Wind,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。6
24、科技 科技 過去,計算機視覺等 AI 模型需要針對每個特定任務進行數據采集、模型訓練等一系列工作,且訓練出來的模型無法用到其他場景,這導致邊際成本難以降低、難以大規模落地等問題。大模型的出現改變了 AI 模型的訓練和使用的范式。在大模型的新范式下,首先訓練出具備跨領域知識的基礎模型(Foundation Model),然后通過微調等方式適配和執行下游各領域的任務,能夠降低模型落地的邊際成本。大模型的新范式帶來了成本結構變遷:大模型出現之前的 AI 1.0 時代,模型訓練成本和模型數量等比例增加,邊際成本較高;AI 2.0 時代,訓練基礎模型的固定成本高,但微調以適應下游應用的成本極低,預訓練模
25、型+微調的新范式邊際成本低,具有明顯的平臺效應,為 AI 公司探索新商業模式提供機會。圖表圖表3:AI 步入步入 2.0 時代,邊際成本大幅度下降時代,邊際成本大幅度下降 資料來源:人工智能發展報告 2011-2020(清華大學,2021),華泰研究 我們相信 AI 2.0 是未來十年科技行業最重要的投資機會,建議投資人參考 4G 的投資邏輯,按照基礎設施-終端-平臺-應用 順序尋找投資標的。復盤 4G 產業發展歷程,我們看到在受益板塊中電信設備商先行,手機次之、電信服務及移動互聯網應用緊跟其后。第一階段,愛立信等通信網絡設備商享受最初的資本開支紅利,但由于華為出現導致的格局改變以及設備投入存
26、在周期性,股價波動回到原點;其次,中國三大運營商在 4G 時代發揮著至關重要的作用,但由于來自監管的提速降費壓力和業務范圍的制約,運營商盈利增速緩慢;4G 時代應用端的主要附加價值被互聯網占據,社交、游戲、電商和視頻等領域出現了一批殺手級應用,以騰訊為代表的平臺型企業也在互聯網浪潮中實現市值飛躍。展望 AI 大模型時代,我們認為:1)算力基礎設施率先受益:AI 大模型推動算力需求快速增長,基礎設施的業績成長確定性最高,主要產業鏈環節包括計算芯片、服務器、數據中心等;2)交互終端次之,當前智能手機是大模型應用的主要載體。未來看好大模型能力提升推動AR/VR,無人駕駛車,機器人等成為下一代硬件載體
27、的潛力。3)大模型平臺是當下產業發展趨勢中最核心的一環,看好 MaaS 成為 AI 大模型時代新的商業模式,關注各國對 AI 大模型企業監管政策對行業發展的影響;4)AI 2.0 最大的投資機會在應用??春么竽P驮谒阉?,電商零售,辦公,金融、醫藥等行業率先落地。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。7 科技 科技 圖表圖表4:從從 4G 周期經驗看周期經驗看 AI 大模型受益順序大模型受益順序 資料來源:Bloomberg,華泰研究 投資機會投資機會#1:算力需求增長利好芯片送水人:算力需求增長利好芯片送水人 我們認為,算力需求增長會率先利好算力芯片,光模塊,服務器產業鏈
28、等送水人。根據 OpenAI 測算,目前算力的增速(翻 1 倍/3-4 個月)遠超過摩爾定律(翻 1 倍/18-24 個月),未來 AI 應用的逐步豐富,將推動推理芯片等相關市場保持強勁增長。我們預計 2025 年左右當生成式 AI 應用大規模落地后,數據中心用推理及訓練芯片市場約 900 億美元,帶動先進代工、先進封裝、光模塊、服務器在內相關產業鏈。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。8 科技 科技 圖表圖表5:大模型對半導體需求增長快于摩爾定律大模型對半導體需求增長快于摩爾定律 資料來源:NVIDIA Ian Buck statement(2018),華泰研究 算力
29、芯片:全球算力芯片:全球 900 億美金市場,訓練英偉達一家獨大,推理百花齊放。億美金市場,訓練英偉達一家獨大,推理百花齊放。我們認為是否擁有大模型將成為科技巨頭科技平臺企業的重要分水嶺。我們預計全球有約 30 家科技巨頭和 300 家 AI 大模型初創企業在進行算力相關投資。到 2025 年,這對應大約每年 300 億美金訓練芯片和 600 億美金的推理芯片市場。其中,英偉達憑借 CUDA 軟件框架構建的強大行業壁壘,在訓練芯片市場一家獨大,推理芯片方面,海外客戶除了采用英偉達、AMD等的通用 GPU 以外,也會采用 TPU 等 ASIC 以提高性價比。國內客戶出于供應鏈安全考慮,逐步提升國
30、產芯片的適用占比。海思,寒武紀,燧原等企業都有較好發展。服務器服務器/PCB/先進封裝:先進封裝:AI 服務器增速超傳統服務器,高算力需求帶動先進封裝需求。服務器增速超傳統服務器,高算力需求帶動先進封裝需求。從GPU 到 AI 工廠,我們認為 AI 計算會為整個服務器產業鏈帶來增長。相較于全球傳統服務器需求持續低迷,根據 IDC 預測 AI 服務器 21-26 年復合增速有望達到 17%。我們看到從單顆 GPU 芯片 H100,通過 NVLINK Switch 形成一顆巨型 GPU,然后通過 Quantum InfiniBand 技術,搭建有上百張 GPU 的 DGX 服務器,最后把多臺 DG
31、X 聯通形成一臺 AI 超級計算機,整個系統的搭建過程會帶動包括服務器整機、PCB、光纖光纜、電源在內的整個服務器產業鏈的性能升級。在先進封裝領域,產業從 2.5D 封裝正走向 3D 封裝,根據Prismark 預測 ABF 載板作為先進封裝關鍵材料有望在 21-26 年實現復合增速 11.5%,而相關測試設備有望長期受益于 Chiplet 和國產替代趨勢。光模塊:光模塊:AI 大模型推動大模型推動 800G 光模塊迎放量元年。光模塊迎放量元年。以 ChatGPT 為代表的 AI 大模型,對數據中心內外的數據流量都提出了新要求,將帶來光模塊行業“量”和“質”的雙重提升。以 ChatGPT 為代
32、表的 AI 大模型訓練中,由于需要海量數據及跨機器協作,產生了大量的數據中心內部通信需求,無阻塞的胖樹結構成為當下最主流的 AI 訓練網絡架構,帶來兩方面主要變化:1)量方面,AI 網絡架構帶來數據中心內部交換機、服務器數量的增加,光模塊作為數據中心內外部連接的核心部件,用量將明顯提升;2)質方面,AI 對于高速率、大帶寬的網絡需求將推動光模塊向 800G 加速升級,根據 Lightcounting 預測,2023 將成為 800G 光模塊放量元年,2028 年 800G 出貨量有望達 998 萬只,對應 2023-2028 年復合增長率為 72%。在此產業趨勢下,我們認為能夠提供高速光模塊的
33、龍頭企業以及上游光器件、光芯片廠商有望迎發展機遇。Moores Law2x/2yrs20122013201220132014201520162017201420152016201720182018201920192020202020212021202220221001001,0001,00010,00010,000100,000100,0001,000,0001,000,00010,000,00010,000,000100,000,000100,000,0001,000,000,0001,000,000,00010,000,000,00010,000,000,000AlexNetVGG-19S
34、eq2SeqResnetInceplionXceptionResNeXtDemseNet201ELMoMoCo ResNet50Wav2Vec 2.0TransformerGPT-1BERT LargeXLNetMegatronMicrosoft T-NLGGPT-3Megatron Turing NLG 530BTraining Compute(PetaFLOPS)Tramsformer275x/2yrsAI model25x/2yrs 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。9 科技 科技 投資機會投資機會#2:誰會成為:誰會成為 2.0 時代的硬件載體?時代的硬件載體
35、?我們認為大語言模型能力的不斷增強,在為智能手機等現有硬件產品帶來 AI 聊天等新的功能的同時,也會催生機器人,ARVR,無人駕駛車等新的硬件形態。從消費電子硬件變遷歷程來看,硬件的升級和應用的發展是一個互相促進的關系。一個新的硬件形態(例如 2008 年的 iPhone,2023 年的蘋果 Vison Pro)會吸引開發者開發新的應用,另一方面,新的應用(2013 年左右的手游)會推動硬件規格的升級。我們認為一個應用的能力可以分為感知、思考和行動三個維度。過去 15 年智能手機和電動車的發展,使手機,電動車等產品已經具備了較強的“感知”能力。過去幾年 AI 云計算的發展,使硬件初步擁有了“思
36、考”的能力。展望未來,我們認為大語言模型會大幅提高硬件產品的“思考”能力,機器人技術的發展會提高硬件產品的“行動”能力。一個同時擁有(1)超強感知能力,(2)通用人工智能(AGI),和(3)靈活的行動能力的硬件產品,可能就是現在大家暢想中的人形機器人。雖然很難預判什么時候這個產品能夠實現,但在最終實現人形機器人的過程中,我們相信會催熟 ARVR,無人駕駛車等很多新的硬件形態,帶動產業發展。圖表圖表6:大模型發展推動硬件載體的變遷大模型發展推動硬件載體的變遷 資料來源:華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。10 科技 科技 投資機會投資機會#3:世界最后需要幾家大
37、模型公司?:世界最后需要幾家大模型公司?我們認為是否擁有大模型將成為科技巨頭科技平臺企業的重要分水嶺。我們認為是否擁有大模型將成為科技巨頭科技平臺企業的重要分水嶺。目前 AI 行業呈現出“百模大戰”的格局,我們認為未來基礎大模型可能呈現國內外各有數個贏家的寡頭競寡頭競爭爭格局。類比云計算領域,國外有 AWS(亞馬遜)、Azure(微軟)和 GCP(谷歌)三巨頭,國內有 BAT 和華為,前期基礎設施的巨大投入造成了云計算的寡頭市場格局。與云計算類似,基礎大模型需要耗費大量算力和數據標注成本,并且隨著規模的增加,其訓練費用將指數級增長。在高壁壘和地緣政治等原因下,未來基礎大模型可能在國內外各自形成
38、寡頭競爭格局。AI 大模型是一個資本密集,人才密集和數據密集的產業,如何形成“數據大模型是一個資本密集,人才密集和數據密集的產業,如何形成“數據-模型模型-應用”的應用”的飛輪,是大模型企業成功的關鍵。飛輪,是大模型企業成功的關鍵。具體而言,大模型的誕生以算力基礎設施為根基,以算法為骨干,以高質量數據為血肉;大模型結合具體應用場景的落地產生應用;用戶使用應用的過程中產生數據,數據又得以反哺模型。由此,從大模型的訓練到應用落地產生閉環,我們認為“數據-模型-應用”的飛輪能否運轉是大模型企業可持續發展和迭代的關鍵。圖表圖表7:形成“數據形成“數據-模型模型-應用”的飛輪,是大模型企業成功的關鍵應用
39、”的飛輪,是大模型企業成功的關鍵 資料來源:華泰研究 MaaS 可能成為可能成為 AI 大模型時代新的商業模式。大模型時代新的商業模式。過去云計算架構主要分為 IaaS、PaaS、SaaS 三層,經過多年發展,出現了像微軟,MongoDB,Adobe 等一批代表性企業。未來,我們認為,MaaS(Model as a Service)可能成為 AI 大模型時代一種新的商業模式。如上所述,大模型具有固定成本高,通用性強等特點,MaaS 企業依托已經訓練好的大模型,向 2B 客戶提供包括 API 調用、模型訓練、模型微調、模型部署服務等各類服務,數據,算法,算力將是 MaaS 企業的主要競爭壁壘。目
40、前,國內,阿里,百度,商湯等都已經宣布提供類似服務。應用應用AI大模型飛輪模型模型+場景+GPU+用戶 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。11 科技 科技 圖表圖表8:大模型服務大模型服務(Model as a Service)有望成為有望成為 AI 時代新業態時代新業態 資料來源:A16Z 官網,華泰研究 監管政策是規范監管政策是規范 AI 大模型健康發展的基礎,關注國內政策落地進展。大模型健康發展的基礎,關注國內政策落地進展。大模型由于涉及到大量個人和企業數據,生成內容中存在虛假信息等風險,是當前全球各國監管關注的重點。23 年 6 月,歐洲議會在全球率先通過人工
41、智能法案,對 AI 模型提出了版權披露、保障隱私與非歧視等基本權利、風險分級監管等要求。23 年 4 月,國家網信辦發布發布生成式人工智能服務管理辦法(征求意見稿),明確要求,符合大模型生成的內容需要符合社會主義核心價值觀,并要求人工智能企業在提供服務前,向國家網信部門申報安全評估;并按照互聯網信息服務算法推薦管理規定履行算法備案和變更,注銷備案等手續。關注監管政策落地對行業發展的影響。投資機會投資機會#4:如何把握大模型應用的投資機會:如何把握大模型應用的投資機會 我們認為,長期來看 AI 2.0 最大的投資機會在應用。根據科大訊飛董事長劉慶峰的觀點,通用人工智能應當具備文本生成、語言理解,
42、知識問答、邏輯推理、數學、代碼、多模態文本生成、語言理解,知識問答、邏輯推理、數學、代碼、多模態等七大維度的能力。通過對 AI 在搜索、電商零售、辦公、金融法律、影視游戲,醫藥、教育、汽車等行業應用前景的分析,我們認為,AI 應用的落地節奏或與行業數字化程度成正比,我們看到 AI 大模型在互聯網(搜索+廣告營銷)、辦公、金融等領域率先迎來“iPhone 時刻”。其中最值得關注的應用包括:1)知識對話在電商、金融、醫療等行業替代傳統客服;2)文本和圖像生成在辦公、廣告營銷、金融、影視游戲等領域成為下一代生產力工具;3)多模態能力拓寬人類探討世界的范圍,特別是在新藥開發上的應用前景。免責聲明和披露
43、以及分析師聲明是報告的一部分,請務必一起閱讀。12 科技 科技 圖表圖表9:大語言模型如何賦能行業大語言模型如何賦能行業 資料來源:OpenBMB,華泰研究 AI+搜索:輸入輸出模態多樣化,有望集成全新商業模式,打開行業天花板。搜索:輸入輸出模態多樣化,有望集成全新商業模式,打開行業天花板。傳統的搜索行為往往需要經歷長時間的判斷過程和多輪的互動,而 AI 技術的加入,將從底層結構上改變搜索形態,以 GPT 為代表的大模型加持賦能搜索行業:1)創造性內容生產與輸出,AI大模型可以利用大量實時文本數據學習語言的規律,并根據用戶指示創造性地完成特定需求下各種類型的文本輸出,如故事、詩歌、摘要、代碼等
44、。2)拓展搜索的多模態能力,利用 AI 技術處理視頻、圖片、語音等多種形式的信息,使搜索不再受限于信息的形態。AI+搜索的誕生便吸引了全球的注意力,內置 AI 聊天功能的 New Bing 搜索引擎在推出一個月后日活躍用戶已突破 1 億,自 New Bing 推出以來,聊天功能使用次數累計超過 4500 萬次。根據 Industry growth insight,2021 年全球搜索市場規模為 109.0 億美元,預計2023 年達到 123.6 億美元。同時 AI+搜索也催生出未來新的商業模式,例如微軟目前內部正在探討在生成回復的引用鏈接中放置訂閱制和彈出式廣告的可行性,有望進一步打開新的市
45、場空間。AI+電商零售:定制化內容生成;個性化營銷推廣。電商零售:定制化內容生成;個性化營銷推廣。目前廣告/營銷行業存在單位推廣成本高、轉化率低的痛點,AI 能賦能行業生產力的提升,主要體現在:1)創新廣告形式,提升信息傳遞效率,形成強流量、高互動,提高廣告營收;2)提高營銷內容生產效率、推進個性化營銷;3)有望推動營銷服務商商業模式革新、毛利率提升。通過以上賦能,行業增長空間有望提升,盈利能力。目前海內外 AI+廣告/營銷應用百花齊放,例如,國外 Adspert利用 AI 將廣告全自動化,優化亞馬遜廣告競價投放,增加銷售額,提升投產比;國內騰訊廣告大模型賦能廣告制作環節,同時助力提升廣告主
46、15%GMV。AI+辦公:生產力的又一次躍升;重塑內容生產、溝通、協作模式。辦公:生產力的又一次躍升;重塑內容生產、溝通、協作模式。生成式 AI 當前在辦公領域的應用主要包括改善生產力、溝通、協作工具等應用方向。以 Microsoft 365 Copilot為例,Copilot 通過把 GPT-4 提供的內容生成功能,與存儲在 Graph 數據庫中的企業數據,以及 Word、Powerpoint、Excel、Outlook、Teams 等辦公工具相結合,提供包括內容創作、數據分析、輔助決策等一系列新功能。生成式 AI 將傳統的點式交互升級為自然語言的交互方式,能夠實現更靈活的功能調度,進一步降
47、低辦公場景的溝通協作成本,提升工作效率。此外,生成式 AI 能夠挖掘辦公場景中的數據價值,提供知識管理等功能,進一步提升產品的價值空間。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。13 科技 科技 AI+金融:廣泛應用于銀行、保險、資管、投顧等環節,助力金融機構降本增效。金融:廣泛應用于銀行、保險、資管、投顧等環節,助力金融機構降本增效。我們認為垂直行業的高價值量數據對于 AI 大模型的訓練和垂直領域應用至關重要,金融行業數字化程度領先,擁有數據富礦,有望成為 AI 大模型率先落地的垂直領域之一。應用端,我們看到生成式和理解式大模型在銀行、保險、資管、投研、投顧等多個細分領域正
48、在落地或擁有潛在落地場景,幫助金融機構降本增效。過去,理解式大模型主要用于信息識別與挖掘,例如風險識別、客戶識別等等。生成式 AI 的主要落地場景包括應用于各金融子行業的智能客服以及內容生成,例如投研領域的研報生成、投顧領域的投資建議生成、保險/資管領域的合同模板生成等等。AI+游戲:游戲:AIGC 帶來玩法體驗端的創新升級,以及生產營銷端的降本提效。帶來玩法體驗端的創新升級,以及生產營銷端的降本提效。1)玩法體驗端:目前看 AIGC 有望在 NPC 智能交互及玩法設計創新方面加速應用,AINPC 的不斷成熟將改變游戲玩家與角色的交互方式,進一步提升游戲沉浸感;同時,AIGC 帶來的 UGC
49、等玩法創新也有望帶來全新的游戲類型,進一步提升游戲內容的豐富度及自由度。2)生產營銷端:以 ChatGPT 等大語言模型為基礎的文本類 Al 生成工具、StableDiffusion 及 Midiourney等 Al 圖像生成工具、Gen2 等 Al 視頻生成工具等已在游戲行業各環節有所應用,同時英偉達、微軟、Epic Games、Unity 等基于原有產品或服務紛紛推出 AIGC 功能。隨工具化AIGC 產品和服務快速迭代,行業“賣鏟人”將加速 AIGC 對行業賦能,帶來進一步的降本提效空間。AI+教育:虛擬個性化輔導教學,提升教學質量同時降本增效。教育:虛擬個性化輔導教學,提升教學質量同時
50、降本增效。傳統教育具有人工成本高、內容同質化以及資源分配不均勻的弊病?;诙嗄B模型在文本、圖像等領域取得重大突破,生成式 AI 技術有望協助構建智慧教育新生態。近期國內外多家公司發布 AI+教育產品,例如多鄰國在“Max 訂閱方案”中推出兩項基于 ChatGPT-4 設計的教輔功能、網易有道發布 AI 口語老師以及科大訊飛發布“1+N”星火認知大模型等。隨著大模型的迭代升級,我們看好生成式 AI 應用于個性化輔導、AI 虛擬教師等領域,助力打造全新的低成本、個性化自適應教育模式,推動優質教育資源的規?;瘧?。同時建議關注 AI+教育帶來的智慧校園、智能終端等硬件設備,以及相關 IT 基礎設施
51、、云服務等軟件設施的投資機會。AI+醫療:拓寬人類對自然界的認知半徑,探索科學邊界。醫療:拓寬人類對自然界的認知半徑,探索科學邊界。醫療健康領域是人工智能率先落地的行業之一,也已經催生了 Nuance、IBM Watson 等一批全球知名企業。隨著基于大模型的生成式 AI 的出現,我們看到 AI+醫療有望迎來一波新的發展機遇。我們看好生成式AI:1)應用于實時病例生成、醫療影響分析等領域,從而發揮提高問診效率、降低數據分析的人工成本等作用;2)賦能藥物發現源頭創新,探索自動根據功能需求設計/優化蛋白質、給定抗原等目標蛋白生成抗體等,加速藥物發現流程。AI+汽車:降低數據搜集、處理成本,優化駕駛
52、體驗,高級別智能駕駛落地可期。汽車:降低數據搜集、處理成本,優化駕駛體驗,高級別智能駕駛落地可期。無人駕駛看上去很美,但一直很難落地。無人駕駛是最早被提出的人工智能應用場景之一,谷歌、蘋果、特斯拉、百度等海內外科技巨頭從 2016 開始就積極布局,但直到現在仍很難實現大規模商用落地。我們認為,1)多維度數據的獲取和標注成本高,2)對小概率事件的決策準確度和人類還存在較大差距,3)事故時法律權責歸屬不明確,是制約其發展的部分原因。我們認為,1)以 ChatGPT 和 SAM 為代表的 AI 大模型的引入,自動標注、虛擬仿真等技術的引入大幅降低模型中數據的采集和處理成本;2)感知、預測、執行全流程
53、算法迭代,體驗能力的提升有助于從行業整體層面加速高級別智能駕駛的量產落地??春?AI大模型賦能之下,降低數據標注成本,提升感知預測執行全流程能力。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。14 科技 科技 圖表圖表10:AI 產業鏈相關公司產業鏈相關公司 海外海外/中國臺灣公司中國臺灣公司 中國大陸公司中國大陸公司 算力 芯片 英偉達、AMD、臺積電 寒武紀、海光信息、芯原股份 光模塊/光芯片 Coherent 中際旭創、天孚通信、長光華芯、源杰科技 先進封裝 味之素、Ibiden、Shinko、ASMPT、Shibaura 長電科技、通富微電 服務器 惠普、戴爾、廣達、緯穎
54、、英業達 工業富聯、聯想、浪潮信息 硬件 人形機器人 特斯拉 小米集團、優必選、綠的諧波、拓普集團、三花智控 AR/VR 蘋果、Meta 字節跳動 模型 微軟、谷歌、英偉達、Meta、亞馬遜 百度、阿里巴巴、騰訊、商湯、科大訊飛 應用 搜索 谷歌、微軟 百度、三六零、昆侖萬維 電商零售 亞馬遜、Shopify 阿里巴巴、京東、焦點科技 辦公 微軟、谷歌、Adobe、Salesforce 金山辦公、福昕軟件、泛微網絡、致遠互聯、萬興科技 金融法律 Bloomberg 同花順 醫藥 Schrodinger、Exscientia、Atomwise 英矽智能、晶泰科技 教育 DUOLINGO 科大訊飛
55、、視源股份、傳智教育、好未來、有道 汽車 特斯拉 小鵬汽車、蔚來汽車、理想汽車 資料來源:華泰研究 2023 年十大投資機會年十大投資機會 長期來看,我們認為全球科技行業的發展會沿著元宇宙,人類永生、和星際文明三個維度演進。其中,1)追求永生是推動人類進步的動力之一,未來腦機接口、納米機器人等前沿科技有望繼續延長人類壽命;2)元宇宙是互聯網的下一站,也是人類數字化遷移的下一步;3)移民火星的意義在于為人類文明留下“備份”,隨著航天技術突破,星際旅行與火星移民終將實現。圖表圖表11:科技板塊投資機會科技板塊投資機會 資料來源:華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。
56、15 科技 科技 過去一年,在這三個維度上,除了 AI 大模型以外,我們還看到科技行業發生了以下變化。1)商業航天:近一年來,我們觀察到中國商業航天產業鏈上下游發生明顯變化。在技術端,國內民營液體火箭公司積極探索發動機技術與可回收技術突破,國內衛星制造在國家統籌規劃、民企合力組建下步入規?;l展。在需求端,我國多項星座計劃有序開展部署,中國星網預計明年上半年開始發射;“衛星直連”成為行業熱點,手機、汽車、模組廠商積極開展嘗試;工信部提出加快 6G 研發,為衛星互聯網提供重要機遇。在政策面,國內多省市利好政策頻出,助力商業航天產業成長。建議關注我國商業航天產業鏈發展機遇。2)元宇宙:受 Meta
57、 縮小在硬件上的投入以及幣價下跌等影響,元宇宙產業鏈從 2022年下半年開始出現回調。6 月,蘋果正式發布第一代頭顯產品 Vision Pro,在微顯示技術(硅基 OLED)和人機交互技術(眼動和手動追蹤)上和 Oculus 等現有產品比有了顯著的提升。后續關注蘋果如何發揮其在開發者和用戶生態上的優勢,以及生成式AI 等最新的技術發展,激活元宇宙生態,值得關注。3)Web3:回顧 Web3 過去一年,加密寒冬中市場風險事件頻發,加速合規框架建立成為美國、歐洲、新加坡、香港等各國家/地區監管強共識。同時,行業創新持續,基礎設施層:1)以太坊完成合并驅動生態進入新階段,市場關注 Layer2 擴容
58、、流動性質押等賽道。2)央行數字貨幣在過去一年取得了積極進展,或將成為區塊鏈技術逐步邁入主流的鋪墊。應用層:1)金融領域,流動性質押衍生品、現實世界資產等新賽道興起,印證普通人進入門檻降低,Web3 正逐步完善與真實世界的連接;2)非金融領域,NFT 成交量高位跌落后,市場投機情緒減弱,關注 Web3 和音樂、社交、游戲等具體場景結合。4)半導體國產化:我們認為半導體設備和材料是中國半導體行業國產化的關鍵一環,美國、日本進一步收緊出口限制,中國半導體當前面臨國內需求遠大于國內供應鏈產能的供需錯配現象。2022 年中國計算、手機、汽車、通信等系統廠商半導體消費額超過 1068 億美元,約占全球半
59、導體消費額的 25%,而中國代工收入僅為全球 10%。在半導體設備(全球市占率 5%)、材料(全球市占率 9%)等環節存在嚴重“卡脖子”問題。在國產化推動下,我們看好:(1)設備:刻蝕、薄膜沉積、量檢測等;(2)零部件:射頻電源、光學鏡頭、金屬結構件等,(3)材料:光刻膠、拋光液/墊等投資機會。5)汽車智能化:在汽車電動化滲透率不斷提高的背景下,汽車智能化較大可能成為下一個紅海競爭的破局點,具體表現在:智能駕駛領域:領航輔助駕駛(NOA)等高級別輔助駕駛功能模型成熟度不斷提高,市場領先者的測試版逐漸落地。我們認為今年或是城市 NOA 普及的元年并且成本有望進一步下降,國產供應商有望受益。智能座
60、艙領域:現階段智能座艙已經處于全面向 4.0 階段發展的時期,硬件的裝載是實現軟件層交互的基礎,座艙硬件已率先迎來大規模上車機遇;其次在智能座艙大模型生態發展下,我們認為擁有大模型和機器視覺技術布局的軟件層企業同樣有望受益。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。16 科技 科技 AI 大模型企業是如何煉成的大模型企業是如何煉成的 我們認為我們認為 AI 大模型是一個資本密集、人才密集和數據密集的產業,如何形成“數據大模型是一個資本密集、人才密集和數據密集的產業,如何形成“數據-模型模型-應用應用”的飛輪,是大模型企業成功的關鍵。的飛輪,是大模型企業成功的關鍵。我們看到海外
61、企業中,微軟&OpenAI、谷歌已經逐步形成 AI 大模型的飛輪。當前,國內百度、阿里、商湯、華為等積極加入,行業呈現“百模大戰”的競爭格局,能否形成飛輪是最后能否勝出的關鍵。海外大模型:微軟海外大模型:微軟&OpenAI、谷歌、英偉達、谷歌、英偉達、Meta、AWS 微軟微軟&OpenAI 領先,谷歌追趕,領先,谷歌追趕,Meta 防御性開源,英偉達轉型算力云服務防御性開源,英偉達轉型算力云服務 微軟和 OpenAI 是目前大模型技術水平、產品化落地最為前沿的領軍者,其對顛覆式創新的持續投入是當前領先的深層原因。谷歌技術儲備豐厚,自有業務生態廣闊并且是 AI 落地的潛在場景,但管理上未形成合
62、力,目前正在產品化、生態化加速追趕。英偉達是 AI 芯片領軍者,CUDA 框架構筑了其它芯片公司難以逾越的護城河,目前正在從硬件向算力云服務、MaaS 等商業模式轉型。Meta 在產品化上進展緩慢,選擇模型開源的防御性策略,以應對 OpenAI、谷歌等競爭對手的強勢閉源模型。AWS 作為領先的云服務廠商,超算技術布局領先,但是在 AI 大模型競爭上的應對稍顯遲緩。圖表圖表12:海外科技巨頭海外科技巨頭 AI 布局布局 資料來源:公司官網,華泰研究 OpenAI:全球領先的:全球領先的 AI 初創企業初創企業 發展歷程:從非營利開端到向營利性全面轉型發展歷程:從非營利開端到向營利性全面轉型 Op
63、enAI 是美國一家人工智能研究實驗室,由非營利組織 OpenAI 和其營利組織子公司OpenAI LP 所組成,公司致力于構建安全的通用人工智能(AGI)以造福人類。非營利開端:硅谷領軍人物云集,創建非營利組織以促進非營利開端:硅谷領軍人物云集,創建非營利組織以促進 AI 發展。發展。非營利性的 AI 項目OpenAI 于 2015 年宣布正式啟動,由許多硅谷領軍人物共同創建,例如硅谷創業孵化器 Y Combinator CEO 的 Sam Altman、Google Brain 的 Ilya Sutskever、時任互聯網支付處理平臺 Stripe CTO 的 Greg Brockman
64、以及特斯拉的 CEO Elon Musk 等,許多創始人都曾是被譽為“深度學習教父”Geoffrey Hinton 教授的學生。公司把生成式預訓練模型(Generative Pre-trained Transformer,GPT)確定為主要研究方向,先后推出并開源預訓練 NLP 模型 GPT-1,以及采用遷移學習技術、能實現多個 NLP 任務的 GPT-2。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。17 科技 科技 向營利性轉型:與微軟深度綁定,推出掀起生成式向營利性轉型:與微軟深度綁定,推出掀起生成式 AI 浪潮的浪潮的 ChatGPT。2018 年,由于Elon Musk
65、 擔任 CEO 的 Tesla 等公司也在開發 AI 技術,存在利益沖突和人才爭奪等矛盾,Elon Musk 辭去 OpenAI 董事會席位。為支撐大模型訓練的高算力和資金需求,同年,有限營利公司 OpenAI LP 成立。2019 年,OpenAI LP 接受微軟 10 億美元投資,與其達成獨家合作伙伴關系。在強大算力和充足資金的助力下,OpenAI 沿著 GPT 路線持續發力,2020 年推出擁有小樣本泛化能力的 GPT-3,2022 年推出加入指示學習(Instruction Learning)和人類反饋的強化學習(Reinforcement Learning from Human Fe
66、edback,RLHF)的 InstructGPT,并于 2022 年發布產品化的 ChatGPT,掀起了一股席卷全球的生成式 AI 浪潮。全面轉型:加快商業化步伐,構建生態圈。全面轉型:加快商業化步伐,構建生態圈。2023 年 1 月,微軟宣布與 OpenAI 的長期合作伙伴關系進入第三階段,將繼續向 OpenAI 投資數十億美元,并加速產品與技術的整合。2023 年 3 月,OpenAI 發布工程化的多模態 GPT-4,并與各個領域的軟件開展合作;同月,OpenAI 發布 ChatGPT Plugins(ChatGPT 插件集),將 GPT 大模型能力與面向用戶的第三方應用程序互聯,應用空
67、間想象力廣闊。圖表圖表13:OpenAI 的發展歷程的發展歷程 資料來源:騰訊科技公眾號,OpenAI 官網,華泰研究 團隊:年輕、背景豪華且高度聚焦技術團隊:年輕、背景豪華且高度聚焦技術 OpenAI 有著一支高人才密度、高效率的“特種兵”創始人團隊。有著一支高人才密度、高效率的“特種兵”創始人團隊。首席執行官兼聯合創始人 Sam Altman,曾任硅谷創業孵化器 Y Combinator 的 CEO,于 2015 年帶領創建了OpenAI,致力于構建安全且人類級別 AI??偛眉媛摵蟿撌既?Greg Brockman,曾任互聯網支付處理平臺 Stripe 的 CTO,在 OpenAI 曾用九
68、個月時間從“零”學起成為一名 1 頂10 的 AI 工程師,是技術產品化的第一推手。首席科學家兼聯合創始人 Ilya Sutskever,曾就職于 Google Brain,參與了深度學習框架 TensorFlow、生成式對抗網絡(GAN)和序列到序列(Seq2Seq)模型的研究,在 OpenAI 領導了 GPT-1/2/3、DALLE 以及ChatGPT 等模型的研發。微軟的 AI 研究實驗室(Microsoft Research AI)是推進 AI 研究的主力團隊。實驗室于2017 年成立,隸屬于微軟研究院,凝聚了來自感知、學習、推理和自然語言處理等多個AI 研究子領域的頂尖科學家,旨在將
69、不同學科結合起來以推進 AGI 技術研發。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。18 科技 科技 圖表圖表14:OpenAI 和微軟的核心成員或和微軟的核心成員或 AI 團隊介紹團隊介紹 資料來源:MicroSoft Research 官網,華泰研究 AMiner 與智譜研究發布的報告顯示,團隊規模雖不足百人(共 87 人),但有著以下顯著特征:1)平均年齡 32 歲,“90 后”是主力軍;2)學術能力和業界經驗均突出,其中有10 人來自谷歌;3)技術人員近九成,高度聚焦技術研發;4)LLM 領域的經驗豐富,1/4團隊成員曾參與 Codex 項目。算力:強大的算力支撐算力
70、:強大的算力支撐 GPT 釋放大模型潛能釋放大模型潛能 2020 年,微軟為 OpenAI 專屬打造擁有超過 28.5 萬張 CPU、1 萬張 GPU 的 AI 超級計算機,通過 Azure 云平臺給予其算力支持,并保證該部分算力不會被 Azure 其他服務占用,為 OpenAI 的大模型訓練配置強大且靈活的計算資源和基礎設施。此外,芯片龍頭企業NVIDIA 也與 OpenAI 保持緊密合作,供應最先進的 GPU 以支持 GPT 系列模型的加速計算,例如 2021 年 OpenAI 將 NVIDIA 全球首款 DGX AI 超級計算機用以訓練 GPT-3.5。微軟正在自研微軟正在自研 AI 芯
71、片,首要目標便是為芯片,首要目標便是為 OpenAI 提供算力。提供算力。2023 年 4 月,據 The Information 報道,微軟正在秘密研發自己的 AI 芯片,代號雅典娜(Athena)。雅典娜芯片由臺積電代工,采用 5nm 先進制程,首個目標便是為 OpenAI 提供算力引擎,以替代昂貴的英偉達 A100/H100,節省成本。微軟從 2019 年就開始研發這款芯片,目前已在測試階段。模型:堅持模型:堅持 GPT 技術路徑,持續探索生成式技術路徑,持續探索生成式 AI 潛力潛力 OpenAI 從 18 年起一直沿著 GPT 路線持續發力,通過 GPT1/2/3/3.5/4 等模型
72、不斷地進行技術探索。在模型架構上,GPT 是側重生成的單向模型。模型的基礎架構是 Transformer的解碼器,解碼器的第一個自注意力層加入了掩蔽機制,使得句子的未來信息被隱藏,由于其只能通過學習當前和歷史的文本信息,來對下一個字進行預測,因此屬于單向的生成式模型。生成式模型相比理解式模型通常具有更高的靈活性和更強的泛化能力,在應用時更具通用性。GPT 系列模型結構秉承了不斷堆疊 Transformer 的思想,通過不斷提升訓練語料的規模、網絡的參數數量來完成 GPT 系列的迭代更新。圖表圖表15:GPT 系列的迭代更新系列的迭代更新 資料來源:斯坦福 Ecosystem Graphs,陳巍
73、談芯公眾號,華泰研究 Transformer層數層數訓練語料量參數量模型性能訓練語料量參數量模型性能GPT-1125GB1.17GPT-24840GB15GPT-3961350GB1750層億生成的文本存在不流暢和不合理層億可以生成更長、更自然、更連貫的文本;具備對未知詞的生成能力層億可以在沒有接受任何指導的情況下完成一些任務;支持多語種生成和對話生成等其他任務 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。19 科技 科技 InstructGPT 極大地提升了通用極大地提升了通用 AI 系統與人類意圖的對齊能力。系統與人類意圖的對齊能力。InstructGPT 基于 GPT-3
74、的架構,引入了指示學習(Instruction Learning)來使得 AI 系統更遵循人類指令,減少產生有害或錯誤內容的可能性;同時,引入人類反饋的強化學習(Reinforcement Learning with Human Feedback,RLHF)訓練機制,通過強化學習范式讓生成式 AI 產出的內容更符合人類意圖。多模態能力和預測擴展工具讓多模態能力和預測擴展工具讓 GPT-4 與萬物互聯。與萬物互聯。2023 年 3 月,OpenAI 發布 GPT-4,模型支持文本和圖像輸入的多模態能力,應用空間想象力大,有望重塑從瀏覽器到文檔智能等的軟件交互。同時,OpenAI 推出具備預測擴展
75、性的深度學習堆棧,用極小算力成本就能可靠預測 GPT-4 在下游垂直領域應用的性能,讓小成本廣泛試用成為可能。在選擇合適的大模型后,模型微調讓通用基礎模型在細分領域的表現進一步提升。應用:以產品為導向形成數據飛輪,逐步構建生態圈應用:以產品為導向形成數據飛輪,逐步構建生態圈 OpenAI 始終以產品為導向,積極推出產品以迅速獲取用戶,從而得到用戶反饋數據來訓練出更好的模型。2020 年,OpenAI 在發布 GPT-3 后快速開放商用 API 服務,讓下游客戶通過 API 調用模型能力。在 ChatGPT 的訓練過程中,則融入用戶數據反饋:1)采用GPT-3 API 獲取的真實用戶請求微調基礎
76、模型;2)引入 RLHF 訓練機制,采用人工標注的數據,通過人類的反饋進行強化學習,針對性地進行模型優化。這使得 ChatGPT 在多個自然語言任務如文書寫作、代碼生成與修改、多輪對話等中展現出遠超 GPT-3 的優秀能力,并有效減少有害和不真實輸出。技術與產品的整合進一步推動數據飛輪的運轉。技術與產品的整合進一步推動數據飛輪的運轉。當前,微軟將把 OpenAI 的技術與旗下各應用生態的產品整合,涵蓋企業級云計算、辦公、底層代碼生成和娛樂交互等各個應用層面。圖表圖表16:微軟產品與微軟產品與 OpenAI 模型的整合模型的整合 資料來源:微軟科技公眾號,大數據應用公眾號,機器之心公眾號,華泰研
77、究 谷歌:谷歌:LLM 領域的奠基者領域的奠基者 發展歷程:從發展歷程:從 AI 技術研發的領軍者到產業化進程的推動者技術研發的領軍者到產業化進程的推動者 谷歌聯手谷歌聯手 AI 初創企業初創企業 DeepMind,率先展開,率先展開 AI 領域的技術布局。領域的技術布局。2014 年,谷歌收購 AI初創公司 DeepMind。DeepMind 持續探索模擬、生物科研、游戲操作、對話聊天等領域的高性能算法,代表產品包括打敗世界圍棋冠軍的 AIphaGo、精準預測蛋白質結構的AIphaFold、戰勝電競職業玩家的 AIphaStar、智能聊天機器人 Sparrow 等。在在 LLM 領域,谷歌是
78、新技術研發的領軍者和奠基者。領域,谷歌是新技術研發的領軍者和奠基者。2015 年,谷歌開源了深度學習框架TensorFlow,其具備靈活、可擴展且易于部署等優勢,成為應用最廣泛的深度學習框架之一,尤其在工業應用處于領先地位。2017 年,谷歌發布 NLP 領域的里程碑Transformer,它首次引入注意力機制,使得模型能更好地處理長文本和復雜的語言結構,大幅提高 NLP 任務的準確度和效率,為后來所有大語言模型奠定基礎架構。2018 年,谷歌發布 3.4 億參數的大規模預訓練模型 BERT,在理解復雜的語言結構和語義中表現優秀,在多項 NLP 任務上的效果都遠遠超過了傳統的淺層架構,宣告 N
79、LP 范式轉變為大規模預訓練模型的方法。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。20 科技 科技 谷歌加快生成式谷歌加快生成式 AI 產業布局。產業布局。OpenAI 于 2022 年底推出的 ChatGPT 掀起了席卷全球的生成式 AI 浪潮,使得 GPT 能力在各個行業和領域不斷拓展,并對谷歌 AI 領先地位構成挑戰。作為應對,谷歌于 2023 年 2 月宣布通過投資聯手 AI 初創公司 Anthropic,將在谷歌云上部署 ChatGPT 的有力競品 Claude,并于同月推出自研的基于 1270 億參數大模型LaMDA 的聊天機器人 Bard。圖表圖表17:谷歌谷歌
80、 AI 領域的發展歷程領域的發展歷程 資料來源:DeepMind 官網,Google 官網,斯坦福 Ecosystem Graphs,OpenBMB 網站,華泰研究 團隊:團隊:Google DeepMind 匯集谷歌匯集谷歌 AI 領域人才領域人才 經過兩輪人才整合,當前谷歌主要經過兩輪人才整合,當前谷歌主要 AI 研發團隊合并為研發團隊合并為 Google DeepMind。2023 年 2 月,谷歌旗下專注 LLM 領域的“藍移團隊”(Blueshift Team)宣布加入 DeepMind,以共同提升 LLM 技術的能力。4 月,谷歌宣布正式將谷歌“大腦”和 DeepMind 兩大團隊
81、合并,組成“Google DeepMind”部門。Google DeepMind 部門首席執行官將由 DeepMind 聯合創始人兼首席執行官 Demis Hassabis 擔任;原谷歌大腦團隊負責人 Jeff Dean 轉任谷歌首席科學家,領導谷歌 AI 相關的最關鍵和戰略性的技術項目,其中首要項目就是系列多模態AI 模型。AI 領域的世界級人才與計算能力、基礎設施和資源的匯集,將顯著加快谷歌在AI 方面探索的進展。圖表圖表18:Google 主要的主要的 AI 研發團隊研發團隊 資料來源:Google 官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。21 科技
82、科技 算力:算力:TPU 系列芯片和新一代超級計算機支撐系列芯片和新一代超級計算機支撐 AI 大模型訓練和創新大模型訓練和創新 TPU(Tensor Processing Unit)是谷歌專門為高效計算和加速神經網絡訓練和推理過程而設計的專用芯片(ASIC)。2016 年,谷歌發布第一代 TPU,成為 AlphaGo 背后的算力。與 GPU 相比,TPU 采用低精度計算,在幾乎不影響深度學習處理效果的前提下,大幅降低了功耗、加快運算速度。最新一代的 TPU v4 發布于 2021 年,在相似規模的系統訓練中,TPU v4 比 A100 計算速度快 1.15-1.67 倍、功耗低 1.33-1.
83、93 倍。TPU v4 卓越的性能、可伸縮性和靈活性使其成為支持 LaMDA、MUM、PaLM 等大規模語言模型的主力產品。谷歌推出新一代超級計算機谷歌推出新一代超級計算機 A3 Virtual Machines,為大型語言模型創新提供動力。,為大型語言模型創新提供動力。谷歌于 2023 年 5 月的 I/O 大會發布 A3 超級計算機,其采用第 4 代英特爾至強可擴展處理器、2TB DDR5-4800 內存以及 8 張英偉達 H100。此外,A3 是首個使用谷歌定制設計的 200 Gbps IPU 的 GPU 實例,GPU 間的數據傳輸繞過 CPU 主機,通過與其他虛擬機網絡和數據流量分離的
84、接口傳輸,網絡帶寬相比 A2 增加 10 倍,具有低延遲和高帶寬穩定性。A3超級計算機專門設計用于訓練和服務對計算資源要求極高的 AI 大模型,這些模型將推動當今生成式 AI 和大型語言模型的創新進展??蚣埽侯I先的自研深度學習平臺框架:領先的自研深度學習平臺 TensorFlow 2015 年,谷歌開源了深度學習框架 TensorFlow,其是當前 AI 領域的主流開發工具之一。TensorFlow 采用計算圖來表示神經網絡計算過程和數據流動,從而實現高效的并行數據處理和運算,尤其在大規模分布式訓練方面具有優勢。TensorFlow 還提供了廣泛的工具和API,可用于各種類型的深度學習應用,例
85、如計算機視覺、自然語言處理和語音識別等領域。此外,TensorFlow 具有很好的可移植性,能夠在多種硬件設備和操作系統上運行。目前,TensorFlow 生態系統完備,為研發人員提供了從模型構建到部署和運營管理的全套工具鏈,是深度學習領域應用最廣泛的框架之一,特別在工業級領域應用處于領先地位。模型:各技術路線的模型儲備豐富,多模態大模型實現人機交互領域突破模型:各技術路線的模型儲備豐富,多模態大模型實現人機交互領域突破 谷歌在谷歌在 AI 各技術路線上積累了豐富的模型儲備。各技術路線上積累了豐富的模型儲備。從基礎架構的角度,其技術路線主要可以分為三個方向:1)基于)基于 Transforme
86、r 純編碼器(純編碼器(Encoder-only):與單向生成的 GPT 模型不同,純編碼器模型是側重理解的雙向模型,通過并行計算和多頭注意力層來學習單詞之間的相關性,實現上下文理解。主要模型包括語言模型 BERT、LaMDA、PaLM、基于 LaMDA 的對話模型 Bard 以及多模態視覺語言模型 PaLM-E。2)基于)基于 Transformer 純解碼器(純解碼器(Decoder-only):純解碼器是單向生成模型,主要用于句子生成。主要模型包括谷歌的語言模型 FLAN、DeepMind 的語言模型 Gopher。3)基于)基于 Transformer 統一架構(統一架構(Encode
87、r-Decoder):統一模型框架能兼容以上兩類模型的理解和生成的下游任務。主要模型包括語言模型 T5、對話模型 Sparrow。圖表圖表19:谷歌在谷歌在 AI 各技術路線發布的主要模型各技術路線發布的主要模型 資料來源:Google 官網,斯坦福 Ecosystem Graphs,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。22 科技 科技 多模態視覺語言大模型多模態視覺語言大模型 PaLM-E 實現人機交互領域的重大飛躍。實現人機交互領域的重大飛躍。2023 年 3 月,谷歌發布5620 億參數的多模態視覺語言模型 PaLM-E,是 PaLM-540B 語言模型
88、與 ViT-22B 視覺模型的結合。與傳統的語言模型相比,PaLM-E 具有更高的效率和靈活性,可以根據輸入的復雜度和任務的需求動態地激活不同的模塊。同時,PaLM-E 可以通過文本、圖像和視頻等多種類型的輸入來理解和控制機器人等實體化系統,從而實現具象化的能力。PaLM-E的發布代表著人機交互領域的一次重大飛躍,在工業、商業、辦公等領域的機器人應用上有著較大的想象力。圖表圖表20:PaLM-E 機器人執行“從抽屜里拿出薯片”的多步驟指令機器人執行“從抽屜里拿出薯片”的多步驟指令 圖表圖表21:PaLM-E 機器人規劃“將積木按顏色分類”的長周期任務機器人規劃“將積木按顏色分類”的長周期任務
89、資料來源:GitHub PaLM-E,華泰研究 資料來源:GitHub PaLM-E,華泰研究 最新的大語言模型最新的大語言模型 PaLM 2 在多語言能力、代碼能力和邏輯能力上得到顯著提升。在多語言能力、代碼能力和邏輯能力上得到顯著提升。谷歌于2023 年 5 月的 I/O 大會發布 PaLM 2,模型基于 2022 年 10 月提出的 AI 新架構 Pathways,并基于 TPU v4 和 JAX 框架訓練。在語言能力上,PaLM 2 的訓練數據超過 100 種語言,能理解、翻譯和生成更準確和多樣化的文本;同時,PaLM 2 在 20 種編程語言上進行訓練以提升代碼能力。在邏輯能力上,P
90、aLM 2 在推理、數學任務測試中顯著優于 PaLM,并與 GPT-4 相當。此外,谷歌在 PaLM 2 的基礎上還訓練了用于編程和調試的專業模型Codey,安全知識模型 Sec-PaLM 以及醫學知識模型 Med-PaLM 2。模型壓縮技術將加速模型壓縮技術將加速 AI 技術與智能終端的融合。技術與智能終端的融合。PaLM2 主要包含 4 種規格(Gecko、Otter、Bison 和 Unicorn),其中體積最小的 Gecko 可以在手機上運行,每秒可處理 20 個Token,大約相當于 16 或 17 個單詞。模型壓縮技術或將成為實現 AI 大模型在邊/端部署的核心技術,加速 AI 技
91、術與智能終端融合。應用:積極布局生成式應用:積極布局生成式 AI 應用以迎接挑戰應用以迎接挑戰 谷歌在過去更注重發表論文,未能及時將成果產品化。谷歌在過去更注重發表論文,未能及時將成果產品化。谷歌在各種路線上發布了很多模型,論文成果豐富,但均未能走出象牙塔落地;同時,旗下 DeepMind 研發的基礎語言模型Gopher、Chinchilla 和對話模型 Sparrow 也尚未產品化。積極布局生成式積極布局生成式 AI 領域應用以迎接挑戰。領域應用以迎接挑戰。谷歌于 2023 年 2 月發布基于 1370 億參數大模型 LaMDA 的 AI 聊天機器人 Bard。谷歌在 4 月發布了 Bard
92、 的更新版本,升級了數學與邏輯能力。2023 年 5 月 I/O 大會,谷歌展示了 Bard 支持的文字、代碼、圖像生成與理解能力,并重點強調了 Bard 與谷歌應用及外部其他應用的協同能力。此外,谷歌通過投資聯手 AI 初創公司 Anthropic,押注 ChatGPT 的有力競品 Claude。面向開發者,谷歌開放 PaLM 的 API,并發布工具 MakerSuite,幫助開發者們快速構建生成式 AI 應用。PaLM API 將為開發者提供面向對輪交互而優化的模型,如內容生成與對話;也能為開發者提供摘要、分類等多種任務的通用模型。工具 MakerSuite 則能幫助開發者快速、輕松地構建
93、和調整自定義模型,在瀏覽器中就能快速測試和迭代調整后的模型。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。23 科技 科技 PaLM 2 賦能超賦能超 25 種功能和產品的升級,包括辦公套件、聊天機器人以及企業級種功能和產品的升級,包括辦公套件、聊天機器人以及企業級 AI 平臺。平臺。在 PaLM 2 的加持下,Workspace 推出的 AIGC 工具包 Duet AI,其中包含 Google Docs 和Gmail 中的智能寫作工具、Google Slides 中的文本生成圖像、演講備注以及 Google Meet的會議摘要生成等功能。升級版 Bard 不僅將支持圖文多模態,
94、還將接入網絡以實時網頁搜索;同時,大量 Bard+tools 的組合將推出,Bard 有望深度融合到 Google 所提供的原有工具中。ToB 應用方面,Vertex AI 集合了谷歌研發的基礎模型,用戶可按需調用模型并對模型的參數權重進行微調;此外,Vertex AI 還能夠根據內部數據建立企業版本的搜索引擎。英偉達:英偉達:AI 時代的芯片領路者時代的芯片領路者 發展歷程:英偉達的二十年輝煌史發展歷程:英偉達的二十年輝煌史 英偉達成立于 1993 年,是全球最大的 GPU 供應商,也是 AI 時代的芯片領路者。上市初期公司主要關注 PC 圖形業務,與 PC 出貨量具備高度相關性,主要以 O
95、EM 的銷售模式。后續隨著智能手機、平板電腦等消費電子的應用出現,公司敏銳捕捉到終端需求的變化,將業務重心向高端游戲顯卡市場過渡。按照過往經驗,英偉達基本每 1-2 年更新一次游戲GPU 架構,憑借強大的性能和生態優勢迅速提升在全球獨立 GPU 市場的市占率,近幾年均保持在 70%以上的份額。進入 2018 年數字貨幣價格大幅下跌,數據中心開始承接公司新增長點,2020 年該業務營收增速超過 120%。此外,英偉達持續以 CUDA 為核心構建護城河,結合 CPU+GPU+DPU 三大硬件,形成統一的生態閉環,且在各細分領域形成全套解決方案。第一階段(第一階段(1992-2015):從圖形芯片到
96、游戲顯卡,確定主流賽道形成穩定現金流):從圖形芯片到游戲顯卡,確定主流賽道形成穩定現金流 持續推動業務升級,戰略核心轉移至高端游戲卡領域。持續推動業務升級,戰略核心轉移至高端游戲卡領域。在 GPU 推出初期,以 OEM 形式銷售顯卡是公司重要的收入來源之一,市場終端應用以 PC 為主,筆記本及平板的普及度尚低,英偉達的產品與 PC 出貨存在較高程度的綁定。隨著半導體行業發展,終端應用趨于多元化,PC 市場熱度從 2012 年起開始出現明顯下降。此外,隨著集成顯卡性能的提升,獨立桌面顯卡出貨情況也開始出現衰退。在此市場環境下,英偉達將戰略核心轉移至高端游戲卡領域。在 2010-2015 年在全球
97、 PC 市場逐步倒退的情況下,英偉達游戲顯卡出貨量5 年實現 9%的年復合增長,銷售均價/收入分別呈現 11%/21%的年復合增長。2019 年公司游戲業務已經為其貢獻了過半營收,而 OEM/IP 業務收入占比下降至僅 6%。第二階段(第二階段(2016-2021):構建通用計算生態,數據中心業務實現爆發式增長):構建通用計算生態,數據中心業務實現爆發式增長 推出革命性架構推出革命性架構 CUDA,進入發展高速期。,進入發展高速期。2006 年英偉達研發出了能夠讓 GPU 計算變得通用化的 CUDA(Compute Unified Device Architecture)技術,運用 GPU 并
98、行處理能力來應對復雜的計算,次年公司就在圖形市場取得飛躍式增長,同時 Tesla GPU 的推出讓英偉達成功進入通用計算時代。經過二十多年的發展,公司已形成包括:面向 PC 和筆記本的 GeForce 系列,面向工作站的 Quadro 系列,面向超大型計算的 Tesla 系列和面對移動處理器的 Tegra 系列。圖表圖表22:Nvidia 數據中心業務收入及同比增長率數據中心業務收入及同比增長率 資料來源:NVIDIA 官網,華泰研究 0%20%40%60%80%100%120%140%160%02040608010012014016020132014201520162017201820192
99、02020212022(億美元)數據中心業務收入同比增長率 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。24 科技 科技 第三階段(第三階段(2022-):):AI 加持下,游戲、數據中心、自動駕駛三駕馬車助力公司邁向千億加持下,游戲、數據中心、自動駕駛三駕馬車助力公司邁向千億美金市場美金市場 英偉達經過前期的路徑選擇已經逐步清晰了三條主要賽道,同時在人工智能飛速迭代的情況下,從元宇宙平臺搭建到協助內容創作到 AI 時代的“臺積電”定位,精準把握每次技術變革:1)游戲方面:)游戲方面:英偉達背靠強大的 GPU 實力不斷在游戲行業進行創新,推出 DLSS、光線追蹤等技術提高游戲體
100、驗,并進一步推動云端游戲業務發展。23 年由于 PC 端出貨減少短期內影響了游戲業務增長,但據彭博一致預期,未來 5 年游戲業務 CAGR 仍有望達到10%。2)數據中心方面:)數據中心方面:除了訓練/推理芯片性能更新,英偉達更側重于 AI 超級計算機的打造和對整個服務器產業鏈的賦能。其在 GTC2023 推出的 NVIDIA DGX 超級計算機,將成為大語言模型實現突破背后的引擎。3)自動駕駛方面,)自動駕駛方面,英偉達在硬件上推出了自動駕駛汽車的平臺 DRIVE Hyperion、算力達每秒 254 TOPS 的系統級芯片 DRIVE Orin SoC、新一代集中式車載計算平臺 DRIVE
101、 Thor。22 年秋季 GTC 大會公布的中央計算引擎 Drive Thor 芯片由 Grace CPU、Hopper GPU 和下一代 GPU 組成,可提供 2000TOPS 算力,預計將在 25 年搭載于極氪。軟件方面則推出了操作系統 DRIVE OS、AI 輔助駕駛平臺 DRIVE Chauffeur、可實現對話式 AI 等智能服務的 DRIVE Concierge 等。過去 5 年汽車業務 CAGR 為 10%,僅占 FY23 收入的3%,但未來會隨著產品逐漸落地而穩步提升。黃仁勛在 22 年 9 月的 Computex 大會上預計未來 6 年,將能夠創造 110 億美元營收價值。團
102、隊:靈魂人物引導產業變革,數次收購完善業務版圖團隊:靈魂人物引導產業變革,數次收購完善業務版圖 靈魂人物帶領數次決策,英偉達引導產業變革。靈魂人物帶領數次決策,英偉達引導產業變革。英偉達由黃仁勛與 Chris Malachowsky、Curtis Priem 于 1993 年 4 月共同創立,創業初期僅是數十家 GPU 制造商中的一員。但憑借黃仁勛非凡的見識和魄力,從 1999 年大規模裁員后發布世界首款 GPU 拿下大客戶微軟,到 2006 年推出 CUDA 技術,到 2012 年宣布計算卡與游戲卡分離成為與 AMD 競爭轉折點,英偉達引領了顯卡行業的每一次重大變革,成為占據獨立顯卡 80%
103、以上份額的巨頭。英偉達不斷通過收購完善業務版圖。英偉達不斷通過收購完善業務版圖。英偉達早期的競爭對手 3dfx 在 2000 年被英偉達收購,3dfx 是 20 世紀 90 年代顯卡芯片的市場領導者,主營業務包括顯卡以及 3D 芯片,在2000 年時因為在一場與 NVIDIA 的官司中敗訴而被 NVIDIA 僅僅以 7000 萬美元和 100 萬美元的股票收購,并在 2002 年年底破產。2019 年,英偉達宣布成功收購以色列芯片制造廠商 Mellanox,進一步加強對數據中心的布局,加速 HPC 和 AI 芯片的發展。另一具有代表性的案例是最后由于監管問題以失敗告終的 2020 英偉達收購
104、ARM 事件,如若達成或將打通 ARM CPU 的龐大生態系統,由此也可以看出英偉達利用收購不斷擴大商業版圖,營造完整生態的動機。圖表圖表23:NVIDIA 收購公司一覽收購公司一覽 收購公司收購公司 年份年份 被收購公司簡介被收購公司簡介 3dfx 2000 顯卡技術先驅 Media Q 2003 無線領域圖形和多媒體技術的領導者 Uli Electronics 2005 核心邏輯技術開發商 Hybrid Graphics 2006 手持設備嵌入式 2D 和 3D 圖形軟件開發商 Portal Player 2007 個人媒體播放器半導體、固件及軟件供應商 Mental Images 200
105、8 視覺渲染軟件公司 AGEIA 2008 游戲物理技術開發商 Portland Group 2013 加速計算開發者工具提供商 Mellanox 2020 高性能互聯技術領域龍頭 Excelero 2022 存儲方案提供商 資料來源:英偉達官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。25 科技 科技 商業模式:深度綁定臺積電走商業模式:深度綁定臺積電走 OEM 模式,輕裝上陣重視研發投入模式,輕裝上陣重視研發投入 深度綁定臺積電,外包制造環節輕資產專注研發。深度綁定臺積電,外包制造環節輕資產專注研發。1998 年,公司與臺積電正式建立策略聯盟伙伴關系。從一開始
106、,黃仁勛就致力于使英偉達成為一家無晶圓廠的芯片公司,通過將制造芯片費用外包以降低資本支出。OEM 模式雖然令投資者擔憂生產外包的風險,但另一面英偉達將騰出的資金用于研發,逐漸建立起了高技術壁壘。自上市以來,英偉達研發投入絕對值基本呈現持續增長,單季度研發費用率平均值超 20%,2022 年公司研發投入達 73 億美元。公司研發投入基本上全部用于 GPU 產品,長期研發投入與積累也使公司產品技術壁壘及競爭力得以充分提升。拓展云服務商業模式,將與企業、云廠商實現互惠共贏。在硬件制造的基礎上,英偉達近拓展云服務商業模式,將與企業、云廠商實現互惠共贏。在硬件制造的基礎上,英偉達近期還推出了期還推出了
107、NVIDIA AI Foundations,定位為“超算云服務+模型代工廠”,用于企業構建自定義語言模型和生成式 AI。NVIDIA AI Foundations 包括語言、視覺和生物學模型構建服務,分別名為 Nemo、Picasso 和 BioNemo,使用企業專有數據進行訓練,用于處理特定領域的任務。我們認為超算云服務我們認為超算云服務+模型代工廠的商業模式是英偉達作為芯片送水人在模型代工廠的商業模式是英偉達作為芯片送水人在大模型時代的商業模式的自然延伸。大模型時代的商業模式的自然延伸。圖表圖表24:NVIDIA AI Foundations 服務與基礎模型服務與基礎模型 圖表圖表25:N
108、VIDIA Picasso 輸入文本,輸出圖片、視頻、輸入文本,輸出圖片、視頻、3D 模型模型 資料來源:2023 年 GTC 大會,華泰研究 資料來源:2023 年 GTC 大會,華泰研究 硬件迭代:訓練硬件迭代:訓練/推理芯片性能參數持續領先對手推理芯片性能參數持續領先對手 芯片性能優勢優于競爭對手,在推理芯片方面將繼續擴大優勢。芯片性能優勢優于競爭對手,在推理芯片方面將繼續擴大優勢。英偉達通常 1-2 年左右更新一次架構,2015 年以來經歷了 Pascal、Volta、Turing、Ampere 和 Hopper 時期,其制程也從 16nm 快速推進到 7nm 和 4nm,預計下一代
109、Blackwell 架構 GPU 將延續與臺積電合作選用 3nm 工藝。為了加速在混合精度計算、光線追蹤領域的發展,英偉達在 Volta 架構引入 Tensor Core 來加速 AI 處理,而在 Turing 架構上加入 RT Core 來實現光線追蹤的混合渲染。從性能對比來看,英偉達在 22 年初推出的 H100 在 AI 性能方面速度比 A100提升 9 倍,在大型語言模型上推理速度高 30 倍,在部分性能上優于 21 年 12 月 AMD 推出的高端 GPU MI250,在訓練芯片具備較強的話語權。而在推理方面,盡管算力要求比訓練端更低,市場需求更大也更為細分,英偉達面對的競爭更激烈,
110、但公司的推理側解決方案更具備通用性、低延時、低功耗。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。26 科技 科技 圖表圖表26:英偉達與英偉達與 AMD 產品對比產品對比 資料來源:英偉達官網,華泰研究 軟件:軟件:CUDA 構建完整生態,構建完整生態,CUDA-X AI 結構拉開差距結構拉開差距 CUDA 是一種將 GPU 作為數據并行計算設備的軟硬件體系,不需要借助圖形學 API,而是采用了比較容易掌握的類 C 語言進行開發,開發人員能夠利用熟悉的 C 語言比較平穩地從 CPU 過渡到 GPU 編程。與以往的 GPU 相比,支持 CUDA 的 GPU 在架構上有了顯著的改進
111、:1)采用了統一處理架構,可以更加有效地利用過去分布在頂點著色器和像素著色器的計算資源;2)引入了片內共享存儲器。兩項改進使得 CUDA 架構更加適用于通用計算,加上 2008 年后蘋果、AMD、和 IBM 推出的 OpenCL 開源標準,GPGPU 在通用計算領域迅速發展。英偉達在 CUDA 上的戰略眼光及持續堅持,是如今形成軟硬集合生態的最核心壁壘:1)易于編程與性能提升:CUDA 包含 CUDA 指令集架構(ISA)以及 GPU 內部的并行計算引擎,采用通用并行計算架構,使 GPU 能夠解決復雜計算問題,相較 AMD 采取的通用OpenCL 平臺而言,并行計算能力可提高 10-200 倍
112、不等;2)不斷豐富的生態系統:英偉達通過十余年迭代擴充已形成豐富的函數庫、API 指令、工具鏈、應用程序等,對開發者友好程度更高。在 CUDA 基礎上英偉達進一步推出 CUDA-X AI 軟件加速庫,提供對深度學習、機器學習和高性能計算的優化功能,進一步拉開與競爭對手在 AI 時代的差距。圖表圖表27:CUDA及及 CUDA-X AI 生態系統生態系統 資料來源:英偉達官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。27 科技 科技 Meta:AI 和元宇宙雙輪并驅和元宇宙雙輪并驅 發展歷程:全球最大社交媒體巨頭擁抱元宇宙和發展歷程:全球最大社交媒體巨頭擁抱元宇宙和
113、 AIGC Meta 是全球社交網絡龍頭企業。是全球社交網絡龍頭企業。2004 年 Mark Zuckerberg 創立 Facebook,2021 年公司改名為 Meta Platforms,取意 Metaverse(元宇宙),體現了公司在虛擬世界中工作和娛樂的愿景。Meta 主要經營社交網絡服務、虛擬現實、元宇宙等產品,旗下擁有 Facebook、Instagram 和 WhatsApp 等社交軟件。在大模型領域,在大模型領域,Meta 奮起直追開源多個大模型。奮起直追開源多個大模型。2017 年,公司開源了深度學習框架PyTorch,是深度學習領域最常用的框架之一。2023 年 2 月,
114、Meta 推出針對研究社區的大型語言模型 LLaMA。4 月,Meta 發布機器視覺領域首個用于圖像分割的通用大模型SAM 和其訓練數據集 Segment Anything 1-Billion,將自然語言處理領域 prompt 范式延展到 CV 領域,為 CV 領域帶來革命性技術突破。5 月,Meta 發布大規模多語言語音 MMS項目,將徹底改變語音技術,支持 1,107 種語言的語音轉文字和文字轉語音以及超過4,000 種語言的語言識別。同月,Meta 發布 650 億參數語言模型 LIMA,無需 RLHF 就能對齊,根據其論文LIMA:Less Is More for Alignment(
115、Zhou et al,2023),在人類評估結果中甚至可與 GPT-4、Bard 和 DaVinci003 相媲美。圖表圖表28:Meta 發展歷程發展歷程 資料來源:Meta 官網,華泰研究 團隊:團隊:AI 人才匯聚,旨在創建人才匯聚,旨在創建 AIGC 頂級產品團隊頂級產品團隊 Meta 擁有一支經驗豐富的核心團隊。創始人、董事長兼首席執行官 Mark Zuckerberg,曾就讀于哈佛大學,2004 年創立了 Facebook。首席運營官 Javier Olivan,持有斯坦福大學工商管理碩士學位和納瓦拉大學電氣和工業工程碩士學位,在加入公司之前曾擔任西門子移動的產品經理。首席技術官
116、Andrew Bosworth,畢業于哈佛大學,曾任微軟 Visio 開發人員,2017 年創建了公司的 AR/VR 組織,領導公司發展 AR、VR、AI 和消費者硬件等。Meta Al 是是 Meta 旗下的人工智能實驗室。旗下的人工智能實驗室。2013 年,深度學習教授和圖靈獎得主 Yann LeCun 創建 FAIR,其最初目標是研究數據科學、機器學習和人工智能。2014 年,統計學先驅 Vladimir Vapnik 加入 FAIR。2018 年,IBM 大數據集團前首席技術官 Jrme Pesenti 擔任 FAIR 總裁一職。2021 年,FAIR 更名為 Meta Al。2022
117、 年,Meta AI 在兩周內預測了 6 億個潛在蛋白質的 3D 形狀。2023 年,Zuckerberg 宣布將成立專注 AIGC 的頂級產品團隊,由負責 AI 和機器學習的副總裁 Ahmad Al-Dahle 領導,隊內共有數十名成員,匯聚了過去分散在公司各地團隊的 AI 人才。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。28 科技 科技 圖表圖表29:Meta 核心成員和核心成員和 Meta 人工智能實驗室人工智能實驗室 資料來源:Meta 官網,華泰研究 算力:全球最快算力:全球最快 AI 超級計算機超級計算機 AI RSC,推出自研,推出自研 AI 芯片芯片 MTIA
118、 AI RSC 是“全球最快是“全球最快 AI 超級計算機”之一。超級計算機”之一。AI RSC(AI Research SuperCluster)是Meta 用于訓練人工智能模型的 AI 超級計算機。2017 年,公司設計自研第一代算力設施,在單個集群中擁有 2.2 萬個英偉達 V100 Tensor Core GPU,每天可執行 35,000 個訓練任務。2020 年,公司決定加速算力增長的最佳方式是從頭開始設計全新計算基礎架構,以利用新的 GPU 和網絡結構技術。公司希望新 AI 超算能夠在 1 EB 字節大的數據集上訓練具有超過一萬億個參數的模型,僅從規模上看,這相當于 36,000
119、年時長的高清晰度視頻。2023 年 5 月,Meta 宣布已經完成了 RSC 的第二階段擴建,使其成為世界上最快的 AI 超級計算機之一,其混合精度計算性能接近 5 exaflops。圖表圖表30:AI RSC 比比 Meta 當前基于當前基于 V100 的集群更快的集群更快 圖表圖表31:AI RSC 第一階段架構第一階段架構 資料來源:Meta 官網,華泰研究 資料來源:Meta 官網,華泰研究 Meta 推出自研推出自研 AI 芯片芯片 MTIA,入場大模型軍備競賽。,入場大模型軍備競賽。2020 年,Meta 設計了第一代 MTIA芯片,采用 7 納米工藝,可以從其內部 128 MB
120、內存擴展到高達 128 GB,并且在 Meta 設計的基準測試中,它處理了低等和中等復雜度的 AI 模型,效率比 GPU 高。2023 年 5 月,Meta 首次推出 AI 定制芯片MTIA(Meta Training and Inference Accelerator),是加速 AI 訓練和推理工作負載的芯片“家族”的一部分。MTIA 是一種將不同電路組合在一塊板上的 ASIC 芯片,允許對其進行編程以并行執行一項或多項任務??蚣埽嚎蚣埽篜yTorch深度學習領域最受歡迎的框架之一深度學習領域最受歡迎的框架之一 PyTorch 是 Facebook 于 2017 年推出的一個基于 Pytho
121、n 的開源深度學習框架,具有靈活性、易用性和高性能,是深度學習領域最受歡迎的框架之一,在 GitHub 上獲超 66,500 顆星。在 ML 領域的主要會議上提交工作成果的研究人員中,超過 80%使用了 PyTorch 框架。PyTorch 支持在 GPU 上進行高速計算,在訓練時擁有更快的速度和更好的性能,從而能大規模提高研究效率。PyTorch 已成為亞馬遜網絡服務、微軟 Azure 和 OpenAI 等眾多公司和研究機構構建 AI 研究和產品的基礎。2022 年,公司正式發布 PyTorch 2.0,它提供了相同的 eager mode 和用戶體驗,同時通過 pile 增加了一個編譯模式
122、,在訓練和推理過程中可以對模型進行加速,從而提供更佳的性能和對動態形狀和分布式的支持。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。29 科技 科技 模型:布局生成式模型:布局生成式 AI,開源語言、視覺等大模型,開源語言、視覺等大模型 語言大模型語言大模型#1:LLAMA 百億參數模型在大多數基準上勝過百億參數模型在大多數基準上勝過 GPT-3。2023 年 2 月,Meta推出了 LLaMA,目前提供 7B、13B、33B、65B 四種參數規模,都至少經過 1T token 的訓練。LLaMA-13B 在多數基準測試下(如常識推理、閉卷問答、閱讀理解、偏見性等)優于 GPT-
123、3(175B),且可在單塊 V100 GPU 上運行。LLaMA-65B 與目前 LLM 中最好的Chinchilla-70B 和 PaLM-540B 旗鼓相當。LLaMA 不作商用目的,免費供給研究人員,目前 Meta 在 GitHub 上提供了精簡版 LLaMA?;?LLaMa 衍生出多個開源模型,例如斯坦福的 Alpaca、伯克利的 Vicuna、Kaola 和ColossalChat,以及哈工大基于中文醫學知識的華駝。加州大學伯克利分校計算機科學教授 Ion Stoica 表示,免費的人工智能模型現在在性能上與谷歌和 OpenAI 的專有模型“相當接近”,大多數軟件開發商最終都會選擇
124、使用免費模型。語言大模型語言大模型#2:LIMA 無需無需 RLHF 就能對齊,媲美就能對齊,媲美 GPT-4。2023 年 5 月,Meta 發布 650億參數語言模型 LIMA,僅在 1,000 個精心挑選的樣本上微調 LLaMa-65B 且無需 RLHF,就實現了與 GPT-4 和 Bard 相媲美的性能。語音大模型語音大模型#1:MMS 模型可識別模型可識別 1100+語言,旨在保護世界語種的多樣性。語言,旨在保護世界語種的多樣性。MMS 模型在2023 年 5 月推出?,F有的語音識別模型覆蓋約 100 種語言,僅為地球上已知的 7,000 多種語言的小部分,MMS 使用 wav2ve
125、c 2.0 的自監督學習,支持 1,107 種語言的語音轉文字和文字轉語音以及超過 4,000 種語言的語言識別。MMS 用圣經訓練,與 OpenAI Whisper 相比,使用 MMS 數據訓練的模型支持 11 倍以上的語言,且在 54 種語言上的平均錯誤率僅為一半。圖表圖表32:MMS 支持的語言示意圖支持的語言示意圖 圖表圖表33:MMS 錯誤率僅為錯誤率僅為 Whisper 數據集的一半數據集的一半 資料來源:Meta 官網,華泰研究 資料來源:Meta 官網,華泰研究 CV 大模型大模型#1:SAM 模型可“分割一切”,模型可“分割一切”,CV 領域迎來領域迎來 GPT-3 時刻。時
126、刻。2023 年 4 月,Meta 推出首個可“任意圖像分割”的基礎模型SAM(Segment Anything Model),它具有強大的一鍵摳圖功能,能從照片或視頻中對任意對象實現一鍵分割,且能夠零樣本遷移到其他任務,為 CV 領域開啟了新的篇章。Meta 還發布了有史以來最大的分割數據集Segment Anything 1-Billion(SA-1B),擁有超過 11 億個分割掩碼,掩碼具有高質量和多樣性。CV 大模型大模型#2:DINOv2 視覺大模型完全自監督,無需微調。視覺大模型完全自監督,無需微調。2021 年 4 月,Meta 公開了DINO 算法,通過自監督學習,DINO 可
127、以從大量未標注的圖像中提取視覺特征,這些特征對于各種下游計算機視覺任務非常有用,例如圖像分類、物體檢測和語義分割。2023年 4 月,Meta 開源 DINOv2 版本,相比較原始的 DINO 模型,DINOv2 能夠對視頻進行處理,生成比原始 DINO 方法更高質量的分割結果。模型除了具備圖像的識別、分類、分割處理等圖像特征提取功能外,還具有語義分割,完善了以圖搜圖功能。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。30 科技 科技 多模態模型多模態模型#1:ImageBind 用圖像對齊六模態,旨在實現感官大一統。用圖像對齊六模態,旨在實現感官大一統。2023 年 5 月,M
128、eta 開源 ImageBind 新模型,是一個像人類一樣結合不同感官的新 AI 模型,能夠同時從文本、圖像/視頻、音頻、深度(3D)、熱能(紅外輻射)和慣性測量單元(IMU)等六種不同的模態中學習。ImageBind 可以使用文本、音頻和圖像的組合來搜索照片、視頻、音頻文件或文本消息。ImageBind 用于豐富的多媒體搜索、虛擬現實甚至機器人技術,可以和 Meta 內部的虛擬現實、混合現實和元宇宙等技術相結合。AWS:全球卓越的云服務平臺發力:全球卓越的云服務平臺發力 AIGC 市場市場 發展歷程:全球領先的云服務平臺強勢入局發展歷程:全球領先的云服務平臺強勢入局 AIGC 亞馬遜成立于
129、1994 年,是目前全球最大的互聯網線上零售商之一。AWS(Amazon Web Services)于 2016 年正式推出,是亞馬遜公司旗下的子公司,向個人、企業和政府提供按需即用的云計算平臺以及應用程序接口,并按照使用量計費。2002 年 7 月,亞馬遜的“A Web Services”上線了首款 Web 服務。2006 年 3 月,AWS 推出了Amazon S3 云存儲,隨后于 2006 年 8 月推出了 EC2。AWS 四項技術創新助力四項技術創新助力 AIGC 發展。發展。2023 年 4 月,AWS 正式入局 AIGC,推出自有基礎模型 Titan 和 AIGC 服務 Bedro
130、ck,以及 AI 編程助手 Amazon CodeWhisperer,并宣布基于自研推理和訓練 AI 芯片的最新實例 Amazon EC2 Trn1n 和 Amazon EC2 Inf2 正式可用。圖表圖表34:AWS 發展歷程發展歷程 資料來源:AWS 官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。31 科技 科技 算力:提供具有成本效益的生成式算力:提供具有成本效益的生成式 Al 云基礎設施云基礎設施 Inferentia 是是 ML/DL 推理(推理(Inference)加速器。)加速器。2018 年 11 月,AWS 發布首款云端 AI芯片 Inferen
131、tia,旨在以極低成本交付高吞吐量、低延遲推理性能。2021 年 1 月,AWS 推出基于 AWS Inferentia 加速器的 Amazon EC2 Inf1 實例,與當前一代基于 GPU 的Amazon EC2 實例相比,吞吐量最高可提高 2.3 倍,每次推理的成本降低多達 70%。2023 年 4 月,AWS 推出配備 Amazon Inferentia2 芯片的 Amazon EC2 Inf2 實例。與第一代 AWS Inferentia 相比,Inferentia2 的吞吐量提高了 4 倍,延遲低至前者的 1/10。Trainium 是是 ML/DL 訓練(訓練(Training)
132、加速器。)加速器。2020 年 12 月,AWS 發布第二款定制的機器學習芯片 AWS Trainium,支持 TensorFlow、PyTorch 和 MXNet 等框架。2022 年 10月,AWS 推出 Amazon EC2 Trn1?;?Trainium 的 EC2 Trn1 實例與基于 GPU 的同類實例相比,可節省高達 50%的訓練成本。2023 年 4 月,AWS 推出配備 AWS Trainium 的Amazon EC2 Trn1n 實例,相比于 Trn1 網絡帶寬提升了 1 倍,從之前的 800GB 左右提升到 1.6TB,旨在為大型的網絡密集型的模型訓練提供使用基礎。模型
133、:推出模型:推出 Titan 大模型及中立托管平臺大模型及中立托管平臺 Bedrock 2023 年 4 月,AWS 推出的自研語言大模型 Titan。Titan 系列模型分為兩種,一種是用于內容生成的文本模型 Titan text,可以執行諸如撰寫博客文章和電子郵件、總結文檔和從數據庫中提取信息等任務。另一種是可創建矢量嵌入的嵌入模型 Titan Embeddings,能夠將文本輸入(字詞、短語甚至是大篇幅文章)翻譯成包含語義的數字表達的大語言模型。中立托管平臺中立托管平臺 Amazon Bedrock 讓讓 AIGC 變得普惠。變得普惠。2023 年 4 月,AWS 推出 Amazon B
134、edrock,讓企業級客戶能快速、安全和高性價比地調用多種大模型構建自己的程序。區別于谷歌和微軟已發布面向大眾的產品,AWS 瞄準的是企業客戶,并且期望作為一個“中立”的生成式 AI 大模型托管平臺,不依賴于任何一家 AI 初創公司。借助 Bedrock,企業級客戶能通過 API 調用來自不同提供商的 AI 模型,例如 AI21 Labs 的 Jurassic-2、Anthropic 的 Claude、Stability AI 的 Stable Diffusion 以及 AWS 自研模型 Titan。產品:免費向個人開放產品:免費向個人開放 AI 編程助手編程助手 Amazon CodeWis
135、perer AI 編程助手編程助手 Amazon CodeWhisperer 提高開發者效率。提高開發者效率。2022 年,AWS 推出 Amazon CodeWhisperer 預覽版,這是一款 AI 編程助手,通過內嵌的基礎模型,可以根據開發者用自然語言描述的注釋和集成開發環境(IDE)中的既有代碼實時生成代碼建議,從而提升開發者的生產效率。2023 年 4 月,AWS 將 Amazon CodeWhisperer 面向個人開發者免費開放,在適用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持 Go、Kotlin、Rust、PHP 和 SQL 等
136、十種開發語言。開發者可以通過在 VS Code、IntelliJ IDEA、Amazon Cloud9 等集成開發環境中的 Amazon Toolkit 插件訪問 CodeWhisperer。國內大模型:百度、阿里、騰訊、華為、商湯、訊飛國內大模型:百度、阿里、騰訊、華為、商湯、訊飛 國內大模型訓練企業中,百度具備先發優勢,芯片層、框架層、模型層和應用層布局完善。阿里緊隨其后,在芯片層、模型層、應用層均有布局,并宣布將旗下所有產品接入通義大模型。騰訊步調穩健,持續研發,在今年以來的大模型熱潮中發聲克制,并未宣布更多模型、應用進展。華為的大模型布局更偏向基礎設施,在芯片層、框架層和模型層均有布局
137、,主要賦能 B 端客戶。商湯的 AI 布局涵蓋推理芯片、模型層和應用層,其以 CV 起家,應用層面不僅涵蓋文字生成能力,同時包括多模態能力。訊飛的 AI布局主要涵蓋模型層、應用層。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。32 科技 科技 圖表圖表35:國內科技公司國內科技公司 AI 布局布局 資料來源:各公司官網,華泰研究 百度:昆侖芯百度:昆侖芯+飛槳平臺飛槳平臺+文心大模型,構建廣泛應用端生態文心大模型,構建廣泛應用端生態 百度是當前唯一一家在芯片層、框架層、模型層和應用層都有領先產品布局的企業,四層百度是當前唯一一家在芯片層、框架層、模型層和應用層都有領先產品布局的企
138、業,四層架構相互協同優化,可以顯著地降本增效。架構相互協同優化,可以顯著地降本增效。在芯片層,百度昆侖芯科技已實現兩代通用 AI芯片“昆侖”的量產及應用,為大模型落地提供強大算力支持。在框架層,“飛槳”是國內首個自主研發的產業級深度學習平臺,集基礎模型庫、端到端開發套件和工具組件于一體,有效支持文心大模型高效、穩定訓練。在模型層,“文心大模型”包括基礎大模型、任務大模型、行業大模型三級體系,全面滿足產業應用需求。在應用層,文心已大規模應用于百度自有業務的各類產品,并通過企業級平臺“文心千帆”進一步推動生態構建。圖表圖表36:百度大模型的發展歷程百度大模型的發展歷程 資料來源:昆侖芯科技官網、百
139、度官網、華泰研究 團隊:百度團隊:百度 CTO 王海峰領銜,技術大牛帶隊王海峰領銜,技術大牛帶隊 百度百度 CTO 王海峰作為領頭人推動百度的王海峰作為領頭人推動百度的 AI 技術戰略發展和生態構建。技術戰略發展和生態構建。王海峰曾任職于微軟,先后主持 Bing 語義搜索、微軟小冰等項目;其于 2010 年加入百度,并在 2018 年升任百度 CTO,曾推出百度大腦、百度小度等一系列產品。其他帶隊的高管還包括百度集團副總裁兼深度學習技術及應用國家工程研究中心副主任吳甜、百度技術委員會主席吳華等。吳甜于 2006 年加入百度,目前負責百度 AI 技術平臺和智能云 AI 產品,領銜研發為文心大模型
140、提供支撐的飛槳深度學習平臺。吳華曾在百度帶領團隊推出世界首個互聯網 NMT(神經網絡機器翻譯)系統,目前主要帶領 NLP 大模型的技術推進。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。33 科技 科技 算力:兩代自研通用算力:兩代自研通用 AI 芯片“昆侖”支持大模型落地芯片“昆侖”支持大模型落地 百度旗下的芯片公司昆侖芯科技已實現兩代通用百度旗下的芯片公司昆侖芯科技已實現兩代通用 AI 芯片產品的量產及落地應用。芯片產品的量產及落地應用。昆侖芯1 代 AI 芯片于 2020 年量產,是國內唯一一款經歷過互聯網大規模核心算法考驗的云端 AI芯片,當前已被廣泛部署在互聯網、工業制
141、造、智慧城市、智慧交通、科研等領域。昆侖芯 2 代 AI 芯片于 2021 年 8 月量產發布,是國內首款采用 GDDR6 顯存的通用 AI 芯片,相比昆侖芯 1 代 AI 芯片性能提升 2-3 倍,且在通用性、易用性方面也有顯著增強。目前,昆侖芯已在百度搜索等業務場景落地,也為大模型訓練提供底層算力支撐。百度之外,昆侖芯還可為客戶提供大模型定制服務,憑借強大算力為大模型落地提供全流程支持??蚣埽寒a業級深度學習平臺“飛槳”為大模型構建提供有力支撐框架:產業級深度學習平臺“飛槳”為大模型構建提供有力支撐 我國首個自主研發、功能豐富、開源開放的產業級深度學習平臺飛槳(PaddlePaddle)是百
142、度大模型背后的有力支撐。飛槳以百度多年的深度學習技術研究和業務應用為基礎,集深度學習核心訓練和推理框架、基礎模型庫、端到端開發套件和豐富的工具組件于一體,有效支持文心大模型高效、穩定訓練。截至目前,飛槳已和 22 家國內外硬件廠商完成了超過 30 種芯片的適配和聯合優化,國產芯片適配第一。文心大模型:“基礎文心大模型:“基礎+任務任務+行業”大模型三層體系全面滿足產業應用需求行業”大模型三層體系全面滿足產業應用需求 百度文心大模型體系構建了文心大模型、工具與平臺兩層體系。在模型層,文心大模型包括基礎大模型、任務大模型、行業大模型三級體系,打造大模型總量近 40 個,全面滿足產業應用需求,涵蓋電
143、力、燃氣、金融、航天等領域?;A大模型針對特定任務預訓練構建任務大模型,任務大模型結合垂直領域數據和知識進一步形成行業大模型,行業大模型則在應用場景的數據反哺基礎大模型優化。在工具與平臺層,大模型開發套件、文心 API以及提供全流程開箱即用大模型能力的 EasyDL 和 BML 開發平臺,幫助全方位降低應用門檻。圖表圖表37:文心全景圖文心全景圖 資料來源:文心大模型官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。34 科技 科技 應用:大模型生態逐步構建,推動應用:大模型生態逐步構建,推動 AI 落地產業落地產業 文心大模型是目前國內預訓練大模型應用端生態最好的大
144、模型之一。文心大模型是目前國內預訓練大模型應用端生態最好的大模型之一。在百度自有業務中,文心已大規模應用于百度內部的各類產品,包含百度搜索、度小滿金融、小度智能屏、百度地圖等。例如,度小滿的智能征信中臺將文心 ERNIE 大模型應用在征信報告的解讀上,能夠將報告解讀出 40 萬維的風險變量,以更好地識別小微企業主的信貸風險。在百度業務之外,文心大模型聯合國網、浦發、中國航天、人民網等企業推出了 11 個行業大模型,讓大模型加速推動行業的智能化轉型升級。文心一言生態逐步構建,加速生成式文心一言生態逐步構建,加速生成式 AI 應用需求落地。應用需求落地。2023 年 3 月,百度率先發布國內第一個
145、類 ChatGPT 生成式大語言模型“文心一言”,展示了其在文學創作、商業文案創作、數理邏輯推理、中文理解、多模態生成方面的能力,并宣布已有超過 650 家企業宣布接入文心一言生態。同月,百度智能云發布的一站式企業級大模型平臺“文心千帆”,平臺提供基于文心一言的數據管理、模型定制微調、推理云等服務,助力各行業的生成式 AI 應用需求落地,進一步推動文心一言生態構建。阿里巴巴:云上賦智,擁抱消費互聯網阿里巴巴:云上賦智,擁抱消費互聯網 AI 新時代新時代 阿里巴巴長期深耕于云計算、AI、大模型、邊緣計算等復雜系統工程的開發,我們認為其已形成從基礎設施層到應用層完整的服務體系與服務能力。阿里靈杰為
146、企業和開發者提供一站式云原生的阿里靈杰為企業和開發者提供一站式云原生的 AI 能力體系。能力體系。依托阿里云的云基礎設施、大數據和 AI 工程能力、場景算法技術和行業經驗,阿里巴巴通過阿里靈杰一站式幫助企業和開發者提升 AI 應用開發效率,促成 AI 在產業中的規?;涞?,激發業務價值。根據阿里靈杰官網介紹,阿里靈杰目前已在金融、教育、交通、新零售、政務和司法 6 大領域提供完整的 AI 應用方案,同時以商品形式出售人臉人體、圖像/視頻生產、圖像分割等 12 大類服務,滿足各項應用場景需求。此外,阿里靈杰已推出大數據+AI 一體化平臺,包含云原生大數據計算服務 MaxCompute、數據開發與
147、治理平臺 DataWorks、機器學習平臺 PAI等,有效幫助客戶實現“開箱即用”,提升 AI 工程開發效率。圖表圖表38:阿里阿里 AI 結構結構 資料來源:阿里靈杰官網,華泰研究 通義大模型國內首個統一通義大模型國內首個統一 AI 底座模型。底座模型。2022 年 9 月,阿里巴巴發布通義大模型,該模型由統一底座層、通用模型層、行業模型層組成,是國內首個統一 AI 底座模型,而統一AI 模型可以充分利用多種感知模態的數據,從而獲得更加豐富和準確的信息,有效解決了傳統大模型通用性和易用性欠缺的問題。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。35 科技 科技 1)統一底座層:
148、)統一底座層:通義統一底座中的 M6-OFA 模型,在不引入新增結構的情況下,可同時處理圖像描述、視覺定位、文生圖、視覺蘊含、文檔摘要等 10 余項單模態和跨模態任務。2)通用模型層:)通用模型層:覆蓋自然語言處理、多模態、計算機視覺。包括 NLP 模型通義AliceMind,多模態模型通義-M6,CV 模型通義-CV 三大模型。2023 年 4 月 7 日,阿里巴巴推出大規模語言模型通義千問,進一步豐富阿里巴巴在通用模型層的產品形態。3)行業模型層:)行業模型層:深入電商、醫療、法律、金融、娛樂等行業,通用與專業領域大小模型協同,讓通義大模型系列可兼顧性能最優化與低成本落地。圖表圖表39:阿
149、里通義大模型結構阿里通義大模型結構 資料來源:2023 阿里云峰會,華泰研究 M6 大模型為超大規??缒B預訓練模型(參數大模型為超大規??缒B預訓練模型(參數 10 萬億萬億+),提供語言理解、圖像處理、),提供語言理解、圖像處理、知識表征等智能服務。知識表征等智能服務。根據 M6 大模型官網介紹,M6 以預訓練模型的形式輸出泛化能力,下游僅需提供場景化數據進行優化調整,即可快速產出符合自身行業特點的精準模型,具備“高精度”、“低門檻”、“多模態”三大特點,有效降低了 AI 使用門檻,推動各行業 AI技術的落地和普及,已在電商、智能制造、金融等行業有豐富落地應用。圖表圖表40:M6 大模型應
150、用場景大模型應用場景 資料來源:阿里云官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。36 科技 科技 多元應用場景已初步落地。多元應用場景已初步落地。根據阿里云官網介紹,M6 大模型具有強大的圖像生成能力和創造力,例如在服裝設計模型中,模型可以根據用戶輸入的款式要求,如“翻領 polo 簡約開衫上衣”,快速完成服裝的款式設計并生成白底圖。在推薦理由生成功能模型中,M6 模型可以捕捉到圖片中的主要特征并轉換成文本表述,如在提取商品主圖中的商品特點信息后,可自動展開擴寫為一段流暢自然的商品推薦理由。除此之外,模型還包括視覺問答、圖文檢索等功能,其技術優勢包括:一致性強
151、(生成圖像和文本保持一致)、清晰度高(細節逼真、紋理豐富)、多樣性高(能夠針對一個文本描述產出不同的圖片)等。以電商場景為例,M6 大模型能夠協助圖文營銷等部分基礎工作,幫助商戶降本增效。M6 大模型已積累豐富用戶案例,如每平每屋、斑馬智行、支付寶等。大模型已積累豐富用戶案例,如每平每屋、斑馬智行、支付寶等。根據 M6 大模型官網,M6 大模型與家居家裝平臺每平每屋合作,基于自身的多模態特征提取能力和模型中存儲的豐富電商領域知識,為每平每屋業務提供了優質的家裝類商品展示。在引入 M6 產出內容封面 embedding 后,線上精排場景取得了 pctcvr2.6%的提升。此外,專注于專業研發智能
152、汽車操作系統底層基礎軟件技術的斑馬智行算法團隊使用 M6 的表征學習能力幫助推進語視對話模型在自動駕駛場景實現應用,語視對話模型在評測上實現 5%以上的絕對值提升,有效優化了自動駕駛體驗。圖表圖表41:M6 大模型用戶案例大模型用戶案例 資料來源:阿里云官網,華泰研究 2023 年 4 月 11 日,張勇(阿里巴巴集團董事會主席兼 CEO,阿里云智能集團 CEO)在2023 年阿里云峰會上指出,未來阿里巴巴所有產品都將接入大模型,進行全面升級,使其智能化水平達到全新高度。我們認為阿里巴巴豐富的消費互聯網業務布局使其在 AI 大模型領域的投入具備長期的賦能空間,我們期待數據的持續積累與模型訓練效
153、果形成良性循環,并使得阿里巴巴在邁出早期技術和基礎設施投資期后,在利潤端收獲果實。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。37 科技 科技 圖表圖表42:阿里巴巴所有產品未來將接入通義千問大模型阿里巴巴所有產品未來將接入通義千問大模型 資料來源:2023 阿里云峰會,華泰研究 騰訊:大模型賦能長尾商家內容自制,提升整體創意和投放效率騰訊:大模型賦能長尾商家內容自制,提升整體創意和投放效率 騰訊以太極平臺為底層,借力混元 AI 和廣告兩大模型,推出 4 大廣告系統,覆蓋廣告內容理解、智能制作審核、廣告推薦模型等環節,其他方案包括視頻自動生成,模型定制化和動態投放等。根據騰訊廣
154、告公眾號,在 DCO 系統加持下,廣告曝光改善 5%,流水和GMV 分別提升 10%和 9%。我們認為,未來騰訊或推出更多 AIGC 應用,視頻號、朋友圈、小程序等都將受益于效率改善,或迎來更多提價空間。技術分析:騰訊廣告大模型的產品構架技術分析:騰訊廣告大模型的產品構架 一、以“太極機器學習平臺”為底層技術,打造“混元一、以“太極機器學習平臺”為底層技術,打造“混元AI大模型”大模型”+“廣告大模型”“廣告大模型”騰訊廣告大模型的基本構架:騰訊廣告大模型的基本構架:騰訊以“太極機器學習平臺”為底層技術依托,打造“混元AI大模型”和“廣告大模型”兩種具備不同功能的千億參數模型,前者側重廣告內容
155、理解,后者側重平臺運算效率。如何理解“混元如何理解“混元AI大模型”和“廣告大模型”的區別和分工?大模型”和“廣告大模型”的區別和分工?從系統處理的時間先后順序看,混元AI大模型先助力系統深度理解廣告內容,然后廣告大模型進行推薦,進行廣告定向篩選,提升廣告和用戶的匹配準確率。從大模型基本構架看,這兩者均依靠“太極機器學習平臺”作為底層技術依托。從計算能力看,“混元AI大模型”的多模態理解能力,有效加深推薦系統對廣告內容的理解,提高用戶體驗以及廣告轉化效果;“廣告大模型”是廣告系統運算能力的關鍵,在更短時間內實現更加高效精準的廣告推薦,可有效提升數據運算的精度、維度與速度。從參數看,單模型推理參
156、數達千億級別,浮點數計算量最高每秒超過10億次。圖表圖表43:騰訊以“太極”為底層技術,依托“混元騰訊以“太極”為底層技術,依托“混元 AI+廣告大模型”賦能廣告匹配廣告大模型”賦能廣告匹配 資料來源:騰訊廣告公眾號,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。38 科技 科技 二、混元大模型賦能廣告制作環節二、混元大模型賦能廣告制作環節 太極機器學習平臺:針對“大模型太極機器學習平臺:針對“大模型+高訪問壓力”自研搭建,支撐增設更多服務器和高算高訪問壓力”自研搭建,支撐增設更多服務器和高算力需求模型力需求模型。在大模型場景中,由于廣告素材呈多倍數增長,內容對廣告平臺
157、的承載和計算能力提出更高要求。太極機器學習平臺技術層面已達業內頂尖水準,可支持 10TB 級模型訓練,以及 TB 級模型推理和分鐘級模型發布上線,使其在模型訓練、推理等方面的性能達到行業領先水準?;煸竽P突谔珮O平臺的加速效果達到業界平均水平的混元大模型基于太極平臺的加速效果達到業界平均水平的 3.7x。太極計算機學習平臺采用先進的分布式參數服務器架構,該架構的優勢在于協調模型參數存儲和計算兩項任務分布式運行,以便增設更多服務器,支持算力需求更高的模型訓練。同時,太極機器學習平臺還能夠調用超大模型提供在線推理服務。太極機器學習平臺在模型訓練加速能力亦較為突出,以混元大模型的訓練為例,基于太極
158、的加速效果是業界平均水平的 3.7 倍。圖表圖表44:太極機器學習平臺邏輯框架太極機器學習平臺邏輯框架 資料來源:騰訊官網,華泰研究 騰訊混元騰訊混元AI大模型:四大技術平臺。大模型:四大技術平臺。以混元大模型為底座,騰訊細分研發出四大技術平臺,分別為“巨闕”系統主攻廣告內容理解、“乾坤”聚焦廣告智能創作、“神針”側重廣告智能審核、“天印”主打廣告指紋系統?;煸煸狝I大模型能夠自動將廣告文案生成視頻。大模型能夠自動將廣告文案生成視頻。目前混元AI大模型已能夠實現廣告智能制作,即通過AIGC自動將廣告文案生成視頻,大大地提高了系統的理解能力、行業特征的洞察力以及文案創意的生成效率,從而有效降低
159、了廣告視頻制作的成本。圖表圖表45:騰訊混元大模型具有較強的內容“一鍵生成”能力騰訊混元大模型具有較強的內容“一鍵生成”能力 功能功能 表現形式表現形式 圖生視頻 可以將靜態的圖片自動生成不同樣式的視頻廣告 文案助手 可以為廣告自動生成更恰當的標題,提升廣告的效果 文生視頻 未來只需要提供一句廣告文案,就可以自動生成與之匹配的視頻 資料來源:騰訊云開發者公眾號,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。39 科技 科技 圖表圖表46:騰訊混元騰訊混元 AI 大模型:四大技術平臺支持廣告各環節效率提升大模型:四大技術平臺支持廣告各環節效率提升 資料來源:騰訊云開發者公
160、眾號,華泰研究 三、精排大模型助力提升廣告主三、精排大模型助力提升廣告主15%GMV 騰訊大模型在廣告中的實用效果:騰訊大模型在廣告中的實用效果:在廣告大模型的幫助下,騰訊廣告的整體投放水平累計提升20%以上。例如精排的單模型推理模型參數量高達千億,經過序列化處理可達數百GB,其浮點計算能力也能夠在10億次以內快速完成,各項算法評價指標相較于百億規模小模型均提升明顯。目前,精排大模型能短時間內在太極平臺上完成計算、提供可靠的廣告匹配結果。騰訊廣告精排大模型:“高算力騰訊廣告精排大模型:“高算力+強推理”助力廣告高效匹配強推理”助力廣告高效匹配 何為精排?何為精排?精排即為精確排序,在廣告計算模
161、型中,用戶看到的廣告先后順序,涉及到精確排序環節。精排環節應用大模型分析后,將會獲得顯著的分析和匹配效果改善,尤其是涉及長尾廣告的分析和匹配。換而言之,用戶可以看到更加符合自身興趣的廣告,廣告主獲得更高的轉化率。騰訊的廣告精排大模型,支撐了千億的特征規模,模型體量達到TB級,各項算法指標相對于原來的模型,都有顯著提升。上線后的評估表明,用戶看到的廣告與自己的相關性更高,廣告主獲得的用戶生命周期總價值(LTV)也明顯提高。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。40 科技 科技 圖表圖表47:精排大模型“千人千面”:精排環節應用大模型分析后,分析和匹配效果顯著改善(尤其是長尾
162、廣精排大模型“千人千面”:精排環節應用大模型分析后,分析和匹配效果顯著改善(尤其是長尾廣告)。用戶可以看到更加符合自身興趣的廣告,廣告主獲得更高的轉化率。告)。用戶可以看到更加符合自身興趣的廣告,廣告主獲得更高的轉化率。資料來源:騰訊云開發者公眾號,華泰研究 精排大模型賦能下,廣告主或可期待精排大模型賦能下,廣告主或可期待 ROI的大幅抬升的大幅抬升。相比百億規模小模型算法,騰訊廣告的精排大模型平均為廣告主帶來15%的 GMV 提升(截至22年6月),也初步驗證了大模型的商業化潛力。未來,隨著大模型平臺系統和算法的持續升級,也會逐步向召回、粗排等其他環節輻射,不斷優化投放效果實現高質匹配。大模
163、型如何更精確地分析騰訊視頻素材、提升推薦精準度大模型如何更精確地分析騰訊視頻素材、提升推薦精準度?騰訊視頻號通過對海量視頻打標簽,讓系統不僅能理解視頻的尺寸、分辨率、大小、鏡頭數等物理特征,還能對播放場景、用戶行為、內容等特征進行學習和訓練,從而更好的理解視頻素材,實現人群與視頻素材的更精準匹配,加強視頻類廣告在粗排、精排等階段的競爭力,最終實現效果的不斷優化。圖表圖表48:騰訊廣告系統技術矩陣騰訊廣告系統技術矩陣 資料來源:騰訊廣告公眾號,華泰研究 起量ROIROI成本 穩定性理解運算綜合分析高效匹配持續學習行業策略智能決策創意生成混元AI大模型太極廣告大模型營銷數據經營數據高效匹配持續學習
164、行業策略智能決策 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。41 科技 科技 華為:昇騰芯片華為:昇騰芯片+MindSpore+盤古大模型,盤古大模型,B 端應用場景落地可期端應用場景落地可期 領導者:華為云領導者:華為云 AI 首席科學家田奇首席科學家田奇 華為云華為云 AI 首席科學家田奇是盤古大模型團隊的負責人。首席科學家田奇是盤古大模型團隊的負責人。田奇曾于 2008 至 2009 年,從大學調至微軟亞洲研究院多媒體計算組進行研究工作。2018 年,田奇加入華為擔任首席科學家,負責華為云相關業務,華為云是目前國內云服務市占率最高的廠商。當前,田奇正帶領團隊推動盤古大模
165、型從科研創新走向產業應用,逐步構建大模型的應用生態。算力:以自研算力:以自研 AI 芯片昇騰作為根基,打造芯片昇騰作為根基,打造 AI 產業平臺產業平臺 華為昇騰芯片包括用于訓練的算力最強 AI 芯片昇騰 910,以及用于推理的全棧全場景 AI芯片昇騰 310。2019 年 8 月推出的昇騰 910 算力超英偉達 Tesla V100 一倍,在同等功耗下擁有的算力資源達到了當時業內最佳水平的兩倍。目前,“昇騰 AI”基礎軟硬件平臺已成功孵化和適配了 30 多個主流大模型,為我國一半以上的原生大模型提供算力支撐?;谠撈脚_,昇騰 AI 產業已與 20 多家硬件伙伴和 1100 多家軟件伙伴建立了
166、合作關系,并共同推出了 2000 多個行業 AI 解決方案,參與其中的開發者數量突破 150 萬??蚣埽荷疃葘W習框架框架:深度學習框架 MindSpore 提升模型開發效率提升模型開發效率 深度學習框架深度學習框架 MindSpore 從訓練推理部署全流程支撐模型高效開發,是國內社區中最活從訓練推理部署全流程支撐模型高效開發,是國內社區中最活躍、關注度最高、被應用最多的框架之一。躍、關注度最高、被應用最多的框架之一。匹配昇騰 AI 處理器,MindSpore 有效克服 AI計算的復雜性和算力的多樣性挑戰,打造面向端、邊、云的全場景 AI 基礎設施方案,讓芯片的強大算力能夠以最高效的方式被開發者
167、們利用。面向大模型開發場景,MindSpore 提供系列工具及套件,發揮軟硬件綜合優勢,從訓練推理部署全流程支撐模型高效開發。同時,MindSpore 可兼容第三方 AI 框架生態,以實現模型的快速遷移。盤古大模型:賦能千行百業的三階段體系盤古大模型:賦能千行百業的三階段體系 華為云盤古大模型于 2021 年 4 月正式發布,到 2022 年聚焦行業應用落地,已經基于一站式 AI 開發平臺 ModelArts,發展出包括基礎大模型(L0)、行業大模型(L1)、行業細分場景模型(L2)三大階段的成熟體系,讓 AI 開發由作坊式轉變為工業化開發的新模式,賦能千行百業。具體來說,盤古大模型的三層體系
168、架構包含:1)L0 基礎大模型:30 億參數的 CV 大模型在業界首次實現模型按需抽取,千億參數和 40TB 訓練數據的 NLP 大模型在在 CLUE 榜單實現業界領先,科學計算大模型致力于解決各種科學問題、促進基礎科學的發展;2)L1 行業大模型:涵蓋礦山、氣象、藥物、分子、電力、海浪、金融等行業;3)L2 場景模型:包含金融 OCR、電力巡檢、建筑能耗優化等場景。應用:行業大模型逐步落地,應用:行業大模型逐步落地,B 端場景應用可期端場景應用可期 盤古盤古 CV 大模型可以賦能分類、識別、檢測等視覺場景。大模型可以賦能分類、識別、檢測等視覺場景。華為已基于 CV 大模型推出礦山大模型、電力
169、大模型等行業大模型,推動相關工業領域安全高效作業。在華為與能源集團合作推出的盤古礦山大模型中,模型能夠解決 AI 在煤礦行業落地難、門檻高等問題。例如,在煤礦主運場景中,AI 主運智能監測系統的異物識別準確率達 98%,實現全時段巡檢,避免因漏檢造成的安全事故;在作業場景中,掘進作業序列智能監測的動作規范識別準確率超過 95,保障井下作業安全。此外,盤古 CV 大模型還可應用在鐵路軌道機車的缺陷檢測中,識別機車中吊鏈、脫落、裂痕等潛在不安全因素,在鄭州鐵路段的 32000 多樣本評測中,對缺陷和故障檢測的準確度達 99%。盤古盤古 NLP 大模型可助力文檔檢索、智能大模型可助力文檔檢索、智能
170、ERP、小語種等內容理解和文本生成場景。、小語種等內容理解和文本生成場景?;贜LP 大模型,華為與合作伙伴開發了支持千億參數的阿拉伯語 NLP 大模型,語義理解準確率達到 95%。此外,盤古 NLP 平臺憑借突破性的零樣本 AI 建模技術,可幫助金融機構降低 AI 建模成本,提升 10 到 1000 倍 AI 建模效率,目前已經在多家銀行、保險、證券等金融機構的數字化客戶經營場景落地,全面助力客戶溝通、銷售管理、客戶洞察等場景的降本增效。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。42 科技 科技 盤古藥物分子大模型可輔助醫藥研發,突破新藥研發的“雙十定律”。盤古藥物分子大模
171、型可輔助醫藥研發,突破新藥研發的“雙十定律”。西安交通大學第一附屬醫院劉冰教授團隊在抗生素研發工作中,采用大模型輔助藥物設計,突破性地研發出超級抗菌藥 Drug X,突破新藥從研發到上市平均需 10 年時間和 10 億美元投入的“雙十定律”,將先導藥的研發周期從數年縮短至一個月,且研發成本降低 70%。此外,藥物分子大模型還可應用于 AI 藥物分子篩選,使得成藥性預測準確率比傳統方式高 20%。新技術大幅減少了人力篩選的時間與成本,充分釋放了科研人員的創新活力。圖表圖表49:通過華為云通過華為云 AI 輔助藥物設計服務平臺進行藥物分子篩選輔助藥物設計服務平臺進行藥物分子篩選 資料來源:華為云官
172、網,華泰研究 盤古氣象大模型是全球首個天氣預測精度超過傳統方式的盤古氣象大模型是全球首個天氣預測精度超過傳統方式的 AI 模型。模型。傳統是通過數字分析的方法,精度位列世界第一的是歐洲氣象中心。區別于傳統的數字分析方法,氣象大模型基于一種 3D 高分辨率的 AI 氣象預報方法,可以在秒級的時間內完成全球未來 1 小時到 7天的天氣預報,精度首次超過了歐洲氣象中心的數字分析的方法,并且預測速度提升了 1萬倍以上。在自然災害里面,例如臺風軌跡預測,盤古的精度相對于世界第一的歐洲氣象中心的方法提升了 20%以上。商湯:商湯:SenseCore 大裝置大裝置+日日新大模型日日新大模型 算力:基于算力:
173、基于 AI 大裝置大裝置 SenseCore,以,以 AI 模型賦能四大業務模型賦能四大業務 商湯基于商湯基于 AI 大裝置大裝置 SenseCore 輔助自身業務開展。輔助自身業務開展。AI 大裝置 SenseCore 打通了算力、算法和平臺之間的連接與協同,構建成一整套端到端的架構體系;基于 AI 大裝置SenseCore,商湯通過 22,000+商用 AI 模型,賦能智慧商業、智慧城市、智慧生活和智慧汽車四大業務。大裝置 SenseCore 擁有約 2.7 萬塊 GPU,約 5 exaFLOPS 算力,提供包括算力服務(IaaS)、開發工具和深度學習平臺(PaaS)以及模型部署及推理(M
174、aaS)在內的全棧式 AIaaS 服務。公司目前最大能夠支持需要 4,000 張卡并行計算的千億參數大模型訓練,為 8 家外部大型客戶提供大模型訓練服務,客戶涵蓋互聯網、游戲、商業銀行,科研機構等多個領域。日日新大模型:構建面向日日新大模型:構建面向 AGI 的核心能力,驅動垂直行業降本增效的核心能力,驅動垂直行業降本增效 商湯是國內最早布局商湯是國內最早布局 AI 大模型的企業之一,已實現大模型的企業之一,已實現 CV、NLP、多模態等大模型的全面布、多模態等大模型的全面布局。局。2019 年已經發布了擁有 10 億參數的圖像大模型,2022 發布的視覺模型參數量達到320 億,是全球最大的
175、通用視覺模型之一,能夠實現高性能的目標檢測、圖像分割和多物體識別算法等功能。今年 3 月推出多模態大模型“書生 2.5”,具備圖像描述、視覺問答、視覺推理、文字識別、文生圖、文本檢索視覺內容等功能,在國內處于領先地位。2023 年 4月,商湯在技術交流會中正式發布“日日新 SenseNova”大模型體系,實現 CV、NLP、多模態等大模型的全面布局,并展示了其問答、代碼生成、2D/3D 數字人生成、3D 場景/物體生成等 AI 模型應用能力。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。43 科技 科技 1800 億參數“商量”大模型賦能專業知識、代碼生成、醫療等垂直場景。億參數
176、“商量”大模型賦能專業知識、代碼生成、醫療等垂直場景。商湯于技術交流會同時發布 1800 億參數“商量”(SenseChat)語言大模型,主要能力包括:1)長文本理解:相比 ChatGPT,SenseChat 支持財務、法務等專業領域超長文本知識理解,能夠基于用戶上傳的長文本 pdf 進行理解和對話。2)代碼生成:Visual Studio Code 接入SenseChat 插件,根據用戶指令直接生成代碼,在 humaneval 測試集上,一次通過率為40.2%,據商湯表示該數據高于 Copilot;3)賦能行業:已落地新華醫院“便捷就醫服務”,輔助初步問診、就醫掛號建議等。此外,公司計劃推出
177、面向行業客戶的類 ChatGPT 對話機器人服務。應用:應用:MaaS 模式可能成為重要新趨勢模式可能成為重要新趨勢 商湯日日新大模型開放 API 體系包含自然語言生成 API、圖片生成 API、視覺通用感知任務 API 和標注 API。此外,商湯還提供了數據標注、模型訓練及微調等一系列 MaaS 服務。近期,我們注意到,英偉達,百度,商湯等企業都提出了類似 MaaS 的新商業模式,其核心是利用自己已經擁有的通用大模型,幫助企業以專有數據創建專有模型。其中,英偉達提供基于其文字、圖像和生物醫藥模型的大模型訓練服務 Al Foundations,百度推出文心千帆大模型平臺,表示未來云計算商業模式
178、會變成 MaaS。擁有大模型的企業,從“賣算力”走向“賣模型”可能成為 AI 企業發展的一條新商業模式??拼笥嶏w:重磅發布星火大模型科大訊飛:重磅發布星火大模型+四大四大 AI 應用成果應用成果 科大訊飛在科大訊飛在 AI 認知智能領域已有十幾年的積累,具備認知大模型“智能涌現”的源頭核認知智能領域已有十幾年的積累,具備認知大模型“智能涌現”的源頭核心技術儲備。心技術儲備。14 年訊飛就推出訊飛超腦計劃,明確提出要讓機器像人一樣具備“能理解、會思考”的能力;17 年訊飛智醫助理在全球首次通過了國家執業醫師資格考試,超過了96.3%參加考試的醫生;19 年在斯坦福大學發起的國際著名 SQuAD
179、機器閱讀理解比賽中,訊飛模型在英文閱讀理解中首次超過了人類平均水平;22 年在艾倫研究院組織的OpenBookQA 科學常識推理比賽中,訊飛單模型首次超過了人類平均水平;22 年 1 月,訊飛正式宣布訊飛超腦 2030 計劃,要讓“懂知識、會學習、能進化”的通用人工智能技術,以機器人的實體形態或虛擬形態能夠進入到每一個家庭;22 年 12 月,訊飛啟動認知智能大模型的專項攻關;23 年年 5 月月 6 日,訊飛星火認知大模型正式發布,同時發布了日,訊飛星火認知大模型正式發布,同時發布了 4大大 AI 行業應用成果。行業應用成果。圖表圖表50:訊飛為認知大模型所做的源頭核心技術儲備訊飛為認知大模
180、型所做的源頭核心技術儲備 資料來源:科大訊飛官網、華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。44 科技 科技 訊飛星火大模型在訊飛星火大模型在 AGI 核心能力上表現出色核心能力上表現出色 1)長文本生成:星火中文已經超過 ChatGPT 水平,英文能力接近并快速進步中;2)語言理解:星火在國內可測的現有系統中遙遙領先,跟 ChatGPT 相比還有細微的差別,且持續提升中;3)邏輯推理:訊飛星火大模型在常識、科學等推理方面表現較好;4)泛領域開放式知識問答:星火可以進行比較好的回答,在醫學知識領域,甚至超越了 GPT-4 的能力;5)數學能力:在數學相關的 16 個
181、類別詳細任務中,訊飛在國內可測的同類系統中遙遙領先,現已經超過了 ChatGPT;6)代碼能力:起步階段,將在 8 月 15 日的升級版本中實現突破;7)多模態輸入和表達能力:預計下一代大模型發布。圖表圖表51:訊飛星火大模型六大核心能力訊飛星火大模型六大核心能力 資料來源:科大訊飛官網、華泰研究 針對星火大模型有待完善的功能,訊飛給出了明確的升級時間表針對星火大模型有待完善的功能,訊飛給出了明確的升級時間表 訊飛星火大模型當前仍有待提升的能力包括開放式問答(實時性問題)、多輪對話能力、代碼能力、數學能力、多模態等能力。針對此,訊飛給出了非常明確的升級時間點。6 月9 日,突破開放式問答(接入
182、搜索引擎)、多輪對話能力再升級、數學能力再升級;8 月 15日,突破代碼能力、多模態交互再升級;10 月 24 日,通用模型對標 ChatGPT(中文超越,英文相當)。發布四大行業應用成果,率先實現發布四大行業應用成果,率先實現 AI 產品化落地產品化落地 1)星火)星火+教育:教育:主要針對學習機 T20Pro/T20 發布了 AI 新功能(老功能升級),包括 AI 中英文作文批改、英語 AI 口語對話、初中數學 AI 同步精準學);2)星火)星火+辦公辦公:智能辦公本 X2、智能錄音筆(SR702)、訊飛聽見、智能麥克風 M2 將具備會議紀要能力、語篇規整能力、一鍵成稿能力三大新功能;3)
183、星火)星火+汽車:汽車:大幅提升人機交互能力,并接入插件功能;4)星火)星火+數字員工數字員工:虛擬人智能交互機能力全面提升,推出新一代生成式 PRA。相關未上市公司相關未上市公司:智譜、:智譜、MiniMax、第四范式、聆心智能、瀾舟科技、云、第四范式、聆心智能、瀾舟科技、云知聲、擴博智能知聲、擴博智能 智譜華章(未上市)智譜華章(未上市)北京智譜華章科技有限公司是認知智能領跑者,持續打造高性能千億級普惠大模型。2019年,公司成立,由清華大學計算機系知識工程實驗室的技術成果轉化而來,致力于打造新一代認知智能通用模型。公司合作研發了雙語千億級超大規模預訓練模型 GLM-130B,并構建了高精
184、度通用知識圖譜,形成數據與知識雙輪驅動的認知引擎,基于此模型打造了ChatGLM。公司還推出了認知大模型平臺 Bigmodel.ai,包括 CodeGeeX 和 CogView 等產品,提供智能 API 服務,鏈接物理世界的億級用戶、賦能元宇宙數字人、成為具身機器人的基座,賦予機器像人一樣“思考”的能力。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。45 科技 科技 MiniMax(未上市)(未上市)MiniMax 是國內首家多模態 AI 大模型創業公司。2021 年,公司成立,致力于成為通用人工智能時代基礎設施建設者和內容應用創造者。公司自研了整套端到端 AGI 引擎系統:底層
185、基礎設施以極高效的并行計算能力支撐超大規??缒P陀柧毴蝿?;文本、語音、視覺三個模態大模型算法能力均達到世界級領先水平;計算平臺為通用模型提供推理優化能力,極大降低了 AIGC 產品研發門檻。公司首款 C 端產品 Glow 定位 AI 虛擬聊天社交軟件,主打聊天、陪伴等情感功能。第四范式(未上市)第四范式(未上市)北京第四范式智能技術股份有限公司是中國領先的企業級 AI 解決方案提供商。2014 年,公司成立,依托自動化機器學習、遷移學習、環境學習和自動化強化學習等核心技術,研發端到端企業級人工智能解決方案。通過統一的基于平臺的交付模型,降低了人工智能跨行業應用的門檻,使行業用戶能夠在其平臺上實
186、現行業數據價值的最大化。產品廣泛應用于金融、零售、制造業、能源電力、電信、醫療等領域。根據灼識咨詢數據,在 2022 年以平臺為中心的人工智能決策方面,公司國內市場份額排名第一。截至 2022 年底,公司擁有 104 名標桿用戶(財富世界 500 強企業及公眾上市公司)。聆心智能(未上市)聆心智能(未上市)北京聆心智能科技有限公司是大模型和對話系統的開發與應用領域的行業領先者。2021年公司成立,致力于打造可控、可配置、安全的超擬人大模型,通過簡單設置即可構造一個有知識、有個性、有風格的類人智能體。公司孵化自清華大學計算機系,團隊核心成員均來自于清華大學、卡內基梅隆大學和谷歌等國內外頂尖高校及
187、公司。2022 年,公司聯合清華大學 CoAI 實驗室共同發布開放域預訓練對話模型 OPD,兼顧出色的閑聊能力與知識性,推動了中文對話領域的發展。同年,公司推出首個超擬人 AI 產品“AI 烏托邦”,允許用戶快速定制 AI 角色。瀾舟科技(未上市)瀾舟科技(未上市)北京瀾舟科技有限公司是業界領先的認知智能公司。2021 年公司成立,致力于以自然語言處理技術為基礎,為全球企業提供新一代認知智能平臺,助力企業數字化轉型升級。同年,公司推出基于團隊自研技術研發的大規模預訓練語言模型“孟子預訓練模型”,可處理多語言、多模態數據,同時支持多種文本理解和文本生成任務,能快速滿足不同領域、不同應用場景的需求
188、。它基于 Transformer 架構,僅包含十億參數量,基于數百 G 級別涵蓋互聯網網頁、社區、新聞、電子商務、金融等領域的高質量語料訓練。云知聲(未上市)云知聲(未上市)云知聲智能科技股份有限公司是頭部物聯網 AI 服務提供商。2012 年,公司成立,以智能語音識別、自然語言理解和知識圖譜等全棧 Al 技術為核心,打造云服務和 AI 芯片,輸出PaaS 和 SaaS 平臺服務,提供面向智慧物聯、智慧醫療等場景的物聯網智能化產品服務。公司精英云集,其研發團隊占比 78%以上,主要核心成員來自盛大、IBM、華為、阿里和微軟等國內外知名企業。2023 年,公司發布山海大模型,目標是年內通用能力比
189、肩ChatGPT,并在醫療、物聯和教育等多個垂直領域能力超越 GPT4。擴博智能(未上市)擴博智能(未上市)上海擴博智能技術有限公司是專注于風電和零售場景的人工智能行業專家。2016 年,公司成立,基于機器學習、IoT、邊緣計算和計算機視覺等技術,為客戶提供端到端的智能服務,有效提升傳統行業運營效率,加快數字化變革。公司瞄準風電和零售行業,提供智慧風電全自動風機葉片巡檢產品和智慧零售線下執行產品。公司自成立以來已提交 130 多項知識產權申請,憑借自身對技術的專注和探索吸引了眾多優秀人才,其研發工程團隊碩博人才占比 70%以上,主要核心成員來自微軟、谷歌、臉書、百度和華為等知名企業。免責聲明和
190、披露以及分析師聲明是報告的一部分,請務必一起閱讀。46 科技 科技 算力:算力:AI 應用如何拉動需求變化應用如何拉動需求變化 隨著 AI 應用的普及,以及以 ChatGPT 為代表的大模型的出現,AI 相關算力需求正成為高性能計算的主要增長點。當前,大模型最重要的特點是通過不斷增加模型參數和訓練的數據集的規模,來實現更高的預測精度和通用性。根據 OpenAI 統計,目前大模型訓練所需算力的增速保持 3-4 個月/倍速度增長,遠超摩爾定律 18-24 個月/倍。圖表圖表52:大模型對半導體需求增長快于摩爾定律大模型對半導體需求增長快于摩爾定律 資料來源:NVIDIA Ian Buck stat
191、ement(2018),華泰研究 根據微軟 2020 年披露,其服務 OpenAI 的計算集群采用超過 1 萬張 GPU。據微軟官網,與進入 TOP500 榜單的超算相比,這一計算集群排名前五。我們假設該集群使用英偉達A100,經簡略測算,在用于超算的 FP64 雙精度下,其浮點計算能力約相當于我國最先進的超算中心太湖之光,是世界最大的超算中心 Frontier 的 9%。以目前火熱的 ChatGPT 為例,ChatGPT 主要是由(1)預訓練大模型如 GPT-3.5 大模型,(2)對該大模型進行基于人類反饋的強化學習(RLHF)訓練而來。GPT-3.5 模型未公布細節,但是其前代 GPT-3
192、 擁有 1750 億參數,數據集 499B tokens,訓練數據量為 300B tokens。圖表圖表53:ChatGPT 是是 GPT-3.5+基于人類反饋的強化學習基于人類反饋的強化學習 注:GPT-3.5 的參數量、數據量參考 GPT-3 數據 資料來源:GPT-4 Technical Report(OpenAI,2023),Language Models are Few-Shot Learners(Brown et al.,2023),華泰研究 Moores Law2x/2yrs20122013201220132014201520162017201420152016201720182
193、018201920192020202020212021202220221001001,0001,00010,00010,000100,000100,0001,000,0001,000,00010,000,00010,000,000100,000,000100,000,0001,000,000,0001,000,000,00010,000,000,00010,000,000,000AlexNetVGG-19Seq2SeqResnetInceplionXceptionResNeXtDemseNet201ELMoMoCo ResNet50Wav2Vec 2.0TransformerGPT-1BERT
194、 LargeXLNetMegatronMicrosoft T-NLGGPT-3Megatron Turing NLG 530BTraining Compute(PetaFLOPS)Tramsformer275x/2yrsAI model25x/2yrs 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。47 科技 科技 大模型對訓練大模型對訓練/推理算力需求的測算推理算力需求的測算 我們認為 ChatGPT 對算力的需求主要包括三個方面:1)初次訓練:初次訓練:通過大量數據訓練出一個復雜的神經網絡模型,使其能夠適應一系列下游任務,具備一定的泛化性、通用性。訓練一個模型本質上是需要持續
195、訓練,直到達到一個精確度水平。在一個模型被完全訓練之后,可通過常規微調向其添加額外的層或額外的信息;2)常規微調:常規微調:訓練不止一次,包括前期調制參數與后期常規微調;3)推理:)推理:將訓練出的模型投入具體場景使用,即使用已有模型進行運算,輸入新數據一次性獲得正確結論。推理高度獨立于訓練。對于訓練,硬件看起來是一樣的,取決于模型的大小,而推理依賴于任務是什么。圖表圖表54:ChatGPT 訓練訓練+推理算力需求測算框架推理算力需求測算框架 資料來源:Wind,華泰研究 訓練階段:訓練階段:GPT3 算力訓練算力訓練 3640PFlops/s-day,根據測算訓練,根據測算訓練 30 天大約
196、需要天大約需要 1944 張張A100。目前的大語言模型大多基于 Transformer 結構,該架構由谷歌在 2017 年提出,摒棄了 CNN 和 RNN 的模型結構,完全基于注意力機制,并行程度高,模型訓練速度快。ChatGPT 基于 GPT-3.5 模型,GPT-3.5 未公布細節,但其前代 GPT-3 擁有 1750 億參數,數據集 499B tokens,訓練數據量為 300B tokens。據 OpenAI 團隊發表于 2020 年的論文Language Models are Few-Shot Learners,訓練一次 1746 億參數的 GPT-3 模型需要的算力約為 3640
197、 PFlop/s-day(即假設每秒計算一千萬億次,需要計算 3640 天)。大模型訓練一次 GPU 的需求量可以用訓練所需浮點運算次數除以單位 GPU 單位時間有效浮點運算次數得到,目前訓練端 GPU 多采用英偉達 A100,考慮:1)A100 Tensor Core 采用張量算力 TF32 稠密峰值 156 TFLOPS;2)實際 GPU 吞吐量與模型策略、Batch size、訓練天數等都有很強的相關性,參考文獻及實際案例給予 40%有效算力比率,最終確定單位GPU 實際算力為 62.4 TFLOPS。根據Language Models are Few-Shot Learners論文中的
198、算力數據,在模型訓練時長為 30 天的假設下,對應需要 1944 張 A100。圖表圖表55:模型訓練模型訓練 GPU 用量測算用量測算 資料來源:華泰研究 GPU 需求量=訓練所需浮點運算次數單位 GPU 單位時間有效浮點預算次數=模型參數?1750 億?訓練集大小(300B)每單詞訓練所需浮點數(6)單位 GPU 單位時間有效浮點預算次數?需考慮并行訓練/網絡數據交換帶來的峰值算力折損?免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。48 科技 科技 圖表圖表56:各個模型參數以及各個模型參數以及 A100 用量(換算量)用量(換算量)模型模型 總 計 算 量總 計 算 量(P
199、F-days)總 計 算 量總 計 算 量(flops)參數量參數量(百萬個百萬個)令牌數量令牌數量(十億十億)處理每參數和處理每參數和詞匯所需執行詞匯所需執行浮點運算數浮點運算數 一次更新參數一次更新參數所需矩陣乘法所需矩陣乘法運算次數運算次數 前向傳播時處理每個激前向傳播時處理每個激活參數和每個輸入詞匯活參數和每個輸入詞匯所需執行浮點計算次數所需執行浮點計算次數 處理每個詞匯處理每個詞匯時被激活的模時被激活的模型參數個數型參數個數 A100 用量用量(張張 30 天天)T5 模型模型 T5-Small 2.08E+00 1.80E+20 60 1000 3 3 1 0.5 1 T5-Bas
200、e 7.64E+00 6.60E+20 220 1000 3 3 1 0.5 4 T5-Large 2.67E+01 2.31E+21 770 1000 3 3 1 0.5 14 T5-3B 1.04E+02 9.00E+21 3000 1000 3 3 1 0.5 56 T5-11B 3.82E+02 3.30E+22 11000 1000 3 3 1 0.5 204 BERT 模型模型 BERT-Base 1.89E+00 1.64E+20 109 250 6 3 2 1 1 BERT-Large 6.16E+00 5.33E+20 355 250 6 3 2 1 3 RoBERTa-Ba
201、se 1.74E+01 1.50E+21 125 2000 6 3 2 1 9 RoBERTa-Large 4.93E+01 4.26E+21 355 2000 6 3 2 1 26 GPT 模型模型 GPT-3 Small 2.60E+00 2.25E+20 125 300 6 3 2 1 1 GPT-3 Medium 7.42E+00 6.41E+20 356 300 6 3 2 1 4 GPT-3 Large 1.58E+01 1.37E+21 760 300 6 3 2 1 8 GPT-3 XL 2.75E+01 2.38E+21 1320 300 6 3 2 1 14 GPT-3 2
202、.7B 5.52E+01 4.77E+21 2650 300 6 3 2 1 29 GPT-3 6.7B 1.39E+02 1.20E+22 6660 300 6 3 2 1 74 GPT-3 13B 2.68E+02 2.31E+22 12850 300 6 3 2 1 143 GPT-3 175B 3.64E+03 3.14E+23 174600 300 6 3 2 1 1,944 注:A100 用量計算假設條件為訓練 30 天 資料來源:OpenAI、Tom B.Brown et al.Language Models are Few-Shot Learners(2020),華泰研究 微調
203、階段:微調階段:微調(Fine-tuning)是在訓練大模型時常見的技術,通常用于在一個已經經過預訓練的基礎模型上通過人類反饋機制進行進一步的訓練,以適應特定的任務或領域,主要優勢在于:1)預訓練使得模型具備了一定的通用語言理解和生成能力,但預訓練模型通常不具備針對特定任務或領域的專門知識。通過微調,可以進一步調整模型的參數,以使其適應特定任務的要求。2)微調使用任務特定的數據集來進一步調整模型,使其能夠更好地捕捉任務相關的信息。3)通過對少量參數的調整,可以減少過渡擬合的風險。由于微調通常只需要數小時或數天,且在相對較小的特定數據集訓練,微調所需算力通常小于一次預訓練算力 3640 PFlo
204、p/s-day。推理階段:推理階段:大模型推理的算力需求通常是在訓練完成后的一個階段,將已經訓練好的模型應用于實際的任務和數據。由于推理算力需求直接和場景任務相關,我們參考 Fortune 雜志數據對 OpenAI 官網對話進行場景模擬,假設每次用戶與 ChatGPT 互動產生的算力云服務成本約 0.01 美元,按照 SimilarWeb 統計 4 月全球訪問量 17.6 億次計算,則單月運營成本大概為 1760 萬美元。根據 Lambda 數據訓練 1750 億參數的 GPT 3 大約需要的機時成本為 460 萬美元,如果我們簡單按照成本比例計算,則該場景至少需要算力近13,905 PFlo
205、p/s-day。AI 軍備競賽需要多大算力軍備競賽需要多大算力 訓練算力:訓練算力:CSP 及及 AI 創業公司帶動訓練算力需求快速增長創業公司帶動訓練算力需求快速增長 參考 2023 年 3 月 23 日發布的從英偉達 GTC 看 AI 工廠的投資機會,我們認為,在比較樂觀的假設下,每家科技巨頭(Big Tech)訓練 GPT-4 及類似的多模態大模型需要 1.6萬張 H100 GPU 的算力。這對應約 5 億美金/家的資本開支,其中 4 億美金是 GPU 采購費用。此外,我們看到世界各地出現 AI 大模型創業熱潮,我們認為 1600 張 H100/家是 AI創業公司入門水平。我們認為全球大
206、約有 30 家科技巨頭和 300 家 AI 初創企業進行相關投資。這對應近 300 億美金的 GPU 需求,相當于英偉達 22 年數據中心收入的 2 倍。根據 IC Insight 預估 2022年全球 MPU 市場 1104 億美元的空間計算,相當于全球芯片市場的 26.4%。從數據中心機柜投資來看,我們假設單機柜投資金額為 4 萬美金,整體相關 AI 數據中心投資規模約 114億美金。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。49 科技 科技 圖表圖表57:訓練資本開支測算訓練資本開支測算 訓練需求訓練需求 公司數量公司數量 GPU 類型類型 GPU 數量數量 ASP(K
207、USD)資本開支資本開支(mn USD)單機柜投資單機柜投資金額金額(KUSD)數據中心資數據中心資本開支本開支(mnUSD)總資本開支總資本開支(mn USD)總年運營成總年運營成本(本(kUSD)全年能耗全年能耗(MWh)CSP 非中國 15 H100 16000 25 6,000 40 1,200 7,200 288 1,471,680 中國 15 A800 60000 10 9,000 40 4,500 13,500 1,080 3,153,600 AI 創業公司 非中國 150 H100 1600 25 6,000 40 1,200 7,200 288 1,471,680 中國 15
208、0 A800 6000 10 9,000 40 4,500 13,500 1,080 3,153,600 合計合計 30,000 11,400 41,400 2,736 9,250,560 資料來源:英偉達官網,OpenAI,華泰研究預測 AI 算力缺口推動芯片快速迭代,高性能芯片功耗持續攀升。算力缺口推動芯片快速迭代,高性能芯片功耗持續攀升。2020 年 5 月,英偉達發布了A100 GPU,性能高達 19.5TFLOPS,相比普通 CPU 芯片算力提升多達 7 倍。后續 2022年 4 月發布的 H100 性能在此基礎上提升了 2.4 倍,達到 67TFLOPS。算力的提升伴隨著功耗的增加
209、,相比普通 CPU 芯片 85W 的 TDP,A100 功耗提升近 3 倍,達到 300W,兩年后的 H100 在此基礎上又翻倍達到 700W。推理算力:需求和應用需求成長成正比,供應商呈現百花齊放態勢推理算力:需求和應用需求成長成正比,供應商呈現百花齊放態勢 推理需求和用戶數增長呈正比。推理需求和用戶數增長呈正比。通常來說我們采用“云端訓練,端側推理”模式,即將數據傳到云側進行訓練模型,訓練好的模型隨后下放到端側,端側利用訓練好的模型直接進行推理。在推理芯片的選用方面,相較于訓練更多關注模型大小而言,推理更依賴于任務本質,以此決定所需芯片種類。當需要大量內容/圖像 AI 生成式時,需要 GP
210、U 進行推理計算(如英偉達主流的 T4 芯片);而對于較簡單的推理過程(語音識別等),CPU 有時也會成為較好的推理引擎(相關公司如英特爾),甚至在特定的場景 FPGA、ASIC 也能成為很好的推理芯片(相關公司如 Xilinx、Altera、Lattice 等),總之相比訓練芯片推理芯片廠商所采用的路徑更多元化。從此前 IDC 等機構發布的統計結果來看,計算芯片中訓練:推理需求的配比一般在 3:7到 4:6 之間。由此,我們可假設在穩態下推理需求是訓練需求的 2 倍,有望帶來約 600億美金的投資??傮w來看,我們預計 2025 年左右當生成式 AI 應用大規模落地后,數據中心用推理及訓練芯片
211、市場約 900 億美元。此外,能耗方面,據我們測算,此外,能耗方面,據我們測算,AI 大模型全年訓練階段和推理階段能耗分別將占全球數據大模型全年訓練階段和推理階段能耗分別將占全球數據中心耗電量中心耗電量 1.61%/0.77%。我們假設全球有 30 家科技巨頭和 300 家 AI 初創企業參與GPT-4 及類似的多模態大模型的訓練和推理,并對其耗電量進行了測算。以同類型 GPU芯片最高能耗配置為準,假設 GPU 芯片全年每天 24 小時無休運行,則估計全球 GPT-4級別 AI 大模型訓練階段和推理階段耗電量分別為 9251/4415GWH,總計約占全球數據中心耗電量的 2.38%。若全球科技
212、巨頭以此速度連續 5 年進行資本開支投入,則 5 年后 AI大模型訓練及推理階段所需耗電量將占到全球數中心總耗電量的 11.9%。計算芯片:算力儲備競賽開啟,推理初步具備進口替代能力計算芯片:算力儲備競賽開啟,推理初步具備進口替代能力 2022 年全球數據中心年全球數據中心 CPU/GPU 市場規模約市場規模約 249/166 億美元億美元 數據中心計算芯片主要包括數據中心計算芯片主要包括 CPU 處理器和處理器和 GPU、FPGA、ASIC 協處理器。協處理器。人工智能、5G、云計算等技術的發展推動全球數據量以指數形式快速增長,根據 IDC 預測,2025 年全球數據量將達到 175ZB,接
213、近 2020 年數據量的 3 倍。面對數據中心海量數據處理工作,傳統 CPU 計算結構越來越難滿足需求,輔助 CPU 進行數據運算的協處理器應運而生。運算協處理器基于不同設計架構存在多條技術路線,包括通用 GPU(GPGPU)、FPGA、ASIC 等。GPGPU 憑借強通用性和完善軟件生態系統成為該領域的主流解決方案。據 IDC數據,2021 年我國 GPGPU 服務器銷售額占據 AI 加速服務器市場的 88.4%,遠超 ASIC、FPGA 等服務器。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。50 科技 科技 圖表圖表58:CPU 處理器與處理器與 GPGPU、ASIC、FP
214、GA協處理器協處理器 資料來源:各公司官網,華泰研究 2022 年全球數據中心年全球數據中心 CPU 市場規模約市場規模約 249 億美元,億美元,Intel、AMD 兩家占據壟斷地位。兩家占據壟斷地位。2022 年,英特爾數據中心事業部(DCG)收入 192 億美元,AMD 數據中心業務收入為60 億美元,合計 252 億美元。根據 DIGITIMES Research 數據,2022 年英特爾在服務器CPU 市場出貨量占比為 77.00%,據此我們測算全球數據中心 CPU 市場規模約 249 億美元。從市場競爭格局來看,Intel 和 AMD 兩家占據市場主要份額,其中英特爾憑借至強系列市
215、場份額維持在 60%以上,AMD 市場份額持續提升。根據 IDC 數據,2Q22 英特爾和AMD 服務器 CPU 全球出貨量份額分別約為 63.7%和 29.2%,合計占據全球市場 89.9%的份額。圖表圖表59:2013-2022 年英特爾數據中心收入年英特爾數據中心收入 圖表圖表60:服務器服務器 CPU 市場份額(按出貨量)市場份額(按出貨量)資料來源:Wind,華泰研究 資料來源:IDC,華泰研究 2022 年全球數據中心年全球數據中心 GPU 市場規模超市場規模超 166 億美元。億美元。NVIDIA 和 AMD 為 GPU 領域代表性廠商,二者占據市場絕大部分份額。2015 年 N
216、VIDIA 數據中心業務收入僅為 3.4 億美元,2022 年突破 150 億美元,年復合增速達 71.86%,反映云端計算對 GPU 的旺盛需求。2022 年 AMD 數據中心業務收入為 60 億美元,剔除服務器 CPU 收入約 39 億美元(由DIGITIMES Research 數據,2022 年 AMD 服務器 CPU 市占率 15.6%及全球服務器 CPU市場規模 249 億美元測算)和服務器 FPGA 收入約 5 億美元(由 AMD 所披露的 Xilinx 營收 46 億元及在數據中心占比約 11%測算),推算其數據中心 GPU 營收約為 16 億美元。據此,我們測算 2022 年
217、全球數據中心 GPU 市場規模超 166 億美元。-30%-20%-10%0%10%20%30%40%0501001502002503002013 2014 2015 2016 2017 2018 2019 2020 2021 2022(億美元)英特爾同比增速0%10%20%30%40%50%60%70%80%90%100%1Q20 2Q20 3Q20 4Q20 1Q21 2Q21 3Q21 4Q21 1Q22 2Q22IntelAMDARM others 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。51 科技 科技 圖表圖表61:2015-2022 年年 NVIDIA數據中心
218、業務收入數據中心業務收入 資料來源:Bloomberg,華泰研究 科技大廠陷入科技大廠陷入 FOMO(Fear of Missing Out)心理,算力儲備競賽開啟心理,算力儲備競賽開啟 2023 年 5 月 24 日英偉達發布 1Q24 財報,受 AI 需求拉動業績大超預期,帶動市值提升至接近 1 萬億美金(市值約為 5 倍 AMD 和 8 倍英特爾),這是 2000 年 Intel 市值超過 1 萬億美金以來,芯片公司第一次提升至 1 萬億美金。業績會上,英偉達 CEO 黃仁勛也表示全球價值 1 萬億美元的數據中心將從傳統計算轉向智能網卡、智能交換機和 GPU 等加速計算,且工作負載主要以
219、生成式 AI 為主。我們認為,在大模型創新時代,當前主要科技企業陷入 FOMO(Fear of Missing Out)的心理狀態,在 AIGC 領域積極部署,云廠商開啟算力儲備競賽。圖表圖表62:海外頭部科技公司市值走勢海外頭部科技公司市值走勢 資料來源:Wind,華泰研究 0%20%40%60%80%100%120%140%160%02,0004,0006,0008,00010,00012,00014,00016,00020152016201720182019202020212022(百萬美元)營業收入同比增速01,0002,0003,0004,0005,0006,0007,0008,00
220、09,00010,0001995/011995/081996/031996/101997/051997/121998/071999/021999/092000/042000/112001/062002/012002/082003/032003/102004/052004/122005/072006/022006/092007/042007/112008/062009/012009/082010/032010/102011/052011/122012/072013/022013/092014/042014/112015/062016/012016/082017/032017/102018/052
221、018/122019/072020/022020/092021/042021/112022/062023/01(億美元)英特爾英偉達高通 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。52 科技 科技 推理初步具備進口替代能力,訓練發展尚需時日推理初步具備進口替代能力,訓練發展尚需時日 2022 年 8 月 31 日,英偉達發布公告稱美國政府于 8 月 26 日對公司向中國(含中國香港)和俄羅斯出口高端 GPU 芯片加強限制。未來公司向中國客戶出口 A100 和 H100 芯片需獲得許可,該指令將適用于未來英偉達推出的峰值性能及接口性能大致相當/等于/優于 A100的芯片及相關系
222、統。盡管后續英偉達推出 A800 和 H800 作為替代 A100 和 H100 出口中國的產品,但在內存帶寬上做了部分裁剪,在大量并行計算的情況下實際性能我們預估降低30%-50%。美國對華 GPU 出口限制之后,又相繼把海光信息、寒武紀等國內頭部芯片公司列入實體清單,限制其芯片流片。我們認為美國對華出口限制,將致使中國先進工藝發展受限、國產替代方案下增加大模型訓練成本/時間。但國內互聯網、云計算大廠等下游客戶出于供應鏈安全考慮加速芯片國產替代,或有助于國內計算芯片企業產品的商業化落地和軟件生態打磨。圖表圖表63:美國禁令限制中國半導體行業發展美國禁令限制中國半導體行業發展 資料來源:BIS
223、,華泰研究 近年來,國產計算芯片取得長足發展,具體從近年來,國產計算芯片取得長足發展,具體從 CPU、GPU、FPGA、ASIC 等領域來看:等領域來看:1)CPU:國產 CPU 產業初具規模,現已形成以龍芯、飛騰、申威等為代表的具備競爭力的國產 CPU 力量。根據內核指令集路線,國產主流 CPU 廠商可分為三類:1)“指令集授權+自研”路線,代表廠商為龍芯和申威,分別基于 LoongArch 指令集和 Alpha 指令集,其他架構均自研。2)“指令集授權”路線,代表廠商為海思和飛騰,兩者已獲得 ARM V8架構指令集永久授權,擁有較高自主發展權。3)“IP 內核授權”路線,代表廠商為獲得X8
224、6 內核層級授權的兆芯和海光,其自主可控程度最低,但生態更完善。2)GPU:國產 GPU 廠商沿圖像處理 GPU 和通用 GPU 兩條路徑切入,圖像處理 GPU 側重圖形圖像的渲染,GPGPU 則側重處理以人工智能訓練、推理為代表的通用計算任務。在人才、資本共同驅動下國產 GPU 產品落地加速,其中圖像處理 GPU 代表廠商有景嘉微、芯動科技;通用 GPU 代表廠商包括壁仞科技、登臨科技等;3)FPGA、ASIC 等:依托互聯網計算企業投資建設持續加碼,國產 FPGA、ASIC 等 AI加速芯片異軍興起。其中,昆侖芯、華夏芯等選擇 FPGA 路線切入,由于 FPGA 產品兼顧靈活性與效率,其
225、CPU+FPGA 結構在應用和算法變化較多的場景優勢明顯;而寒武紀、燧原科技、平頭哥等初創公司則選擇 ASIC 技術路線,ASIC 類芯片專用性強,在特定場景中其針對部分算法的加速效果要顯著優于 GPU,且能效比更高,其份額有望伴隨生態環境進一步完善實現較大提升。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。53 科技 科技 圖表圖表64:國內計算芯片一覽國內計算芯片一覽 資料來源:各公司官網,華泰研究 國產國產 AI 加速芯片在訓練端和推理端進口產替代進程上有所差異:加速芯片在訓練端和推理端進口產替代進程上有所差異:1)中國)中國 AI 訓練芯片進展:仍與英偉達在性能和生態有一
226、定差距。訓練芯片進展:仍與英偉達在性能和生態有一定差距。訓練芯片需通過海量數據訓練出復雜的神經網絡模型,使其適應特定的功能,對性能和精度有較高的要求,并需具備一定的通用性。近年來,國內廠商訓練芯片產品硬件性能不斷取得突破,但與市場主流英偉達 A100 產品仍存在一定差距。寒武紀去年年底推出思元 590 系列在部分模型上由于其 ASIC 專用性表現出更優異的性能,理論性能已超過 A100,但仍需要后期適配和技術支持。此外,由于英偉達 CUDA 軟件平臺已經成為行業事實上的標準,國產 AI 訓練芯片為兼容 CUDA 生態可能帶來一定性能損耗。圖表圖表65:國內主要云端訓練芯片與英偉達主流訓練芯片對
227、比國內主要云端訓練芯片與英偉達主流訓練芯片對比 資料來源:各公司官網,華泰研究 2)中國)中國 AI 推理芯片進展:推理芯片進展:推理芯片則是利用神經網絡模型進行推理預測,對峰值計算性能要求較低,則更加注重單位能耗算力、時延、成本等綜合指標,我國廠商多選擇先從推理端切入。寒武紀、海思以及燧原等國內廠商產品已具備與市場主流的 Tesla T4 正面競爭能力。以寒武紀思元 370 為例,其 INT8 運算性能達到 256 TOPS,高于 T4 的 130 TOPS,且能效比和性價比均更優,已具備替代 T4 能力。主要應用場景類型代表產品團隊背景創立時間公司服務器,工作站CPU/GPGPU海光3號,
228、DCU8000系列中科院計算所2014年海光信息服務器、桌面等CPUS2500,D2000中國電子2014年飛騰桌面、工控等CPU龍芯3A5000中科院計算所2001年龍芯中科桌面CPU/GPU開勝KH-30000上海市國資委2013年兆芯科技服務器等CPU/GPU鯤鵬920-7260華為2004年海思超算CPU申威1621捷世智通科技2016年申威軍用市場、桌面辦公等GPUJM5400、JM9231國防科技大學2006年景嘉微桌面PC等GPU風華1號、風華2號Imagination、AMD2007年芯動科技嵌入式設備、辦公電腦等GPUGenBu01西郵2021年芯瞳半導體云端推理GPUSV1
229、00、SG100AMD2018年瀚博半導體云端推理、邊緣端GPUMTT S60英偉達2020年摩爾線程云端訓練、云端推理GPGPU燧思1.0、燧思2.0AMD2018年燧原科技云端訓練、云端推理GPGPU7nm GPGPUAMD2015年天數智芯云端訓練、云端推理GPGPUGoldwasser圖芯,百度,英偉達,AMD,思科,博通2017年登臨科技云端訓練GPGPUAntoum芯片卡內基梅隆大學、Intel、Marvell和Oracle2018年墨芯人工智能云端訓練、云端推理GPGPUBP100商湯科技、AMD2019年壁仞科技數據中心、AIGPGPUMXN、MXC、MXGAMD2020年沐曦
230、集成電路數據中心、安防ASIC思元590、290、370中科院2016年寒武紀數據中心/電動汽車/5GFPGAHME-H/P/R/M京微雅格、Skyworks2017年京微齊力通信、圖像處理、工業控制、汽車電子、消費電子、人工智能FPGA小蜜蜂(GW1N)、晨熙(GW2A)、ASSP GoBridgeLattice、Candance2014年高云半導體LED顯示、工業控制、圖像處理、儀器設備、高端醫療、基站通訊FPGASeagull 1000系列、Sealion2000系列、Seal 5000系列Trident Microsystem、Broadcom、Lattice2012年智多晶云計算、數
231、據中心DPUYB6480博通、AMD、英特爾、海思2020年云豹智能數據中心DPUK1、K2中科院2018年中科馭數主要云端訓練芯片對比主要云端訓練芯片對比壁仞科技壁仞科技BR100燧原燧原云邃云邃T20摩爾線程摩爾線程MTT S300海光信息海光信息深算一號深算一號華為海思華為海思昇騰昇騰910寒武紀寒武紀思元思元590寒武紀寒武紀思元思元290Habana(Intel)GaudiGoogleTPU 3.0NVIDIAH100 SXMNVIDIAA100 80GBPcle處理器名處理器名稱稱NA24 GCU-CARE4096 MUSA4096(64 CUs)彈性多核多核多核多核多核14592
232、(CUDA cores)6912(CUDA cores)邏輯核心數240 TFLOPS(FP32)32 TFLOPS(FP32)15.2 T FLOPS(FP32)NA320 TFLOPS(FP16)500+TFLOPS(FP16)256 TOPS(INT16)60 TFLOPS(FP32)420 TFLOPS(FP32)51 TFLOPS(FP32)19.5 TFLOPS(FP32)訓練計算性能64GB32GB32GB32GBNA32GB32GB128GB80GB40GB內存大小1.64TB/S1.6TBS448GB/S2014GB/SNA1228GB/S1TB/SNA3TB/S2039GB
233、/S內存帶寬450-550W300W250W350W310W400W350W140W200W700W400W功耗0.48 TFLOPS/W0.11 TFLOPS/W0.06TFLOPSNA1.03 TFLOPS/W(FP16)0.73 TFLOPS/W(INT16)0.42TFLOPS/W2.1 TFLOPS/W0.07TFLOPS/W0.05 TFLOPS/W能效比7nm12nm12nm7nm7nm7nm7nm16nmNA5nm7nm工藝節點 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。54 科技 科技 圖表圖表66:國內主要推理芯片與英偉達主流推理芯片對比國內主要推理芯片與
234、英偉達主流推理芯片對比 資料來源:各公司官網,華泰研究 服務器:服務器:AI 服務器市場穩步增長,服務器市場穩步增長,2021-2026E CAGR 預計達預計達 17%除了一系列 GPU 芯片以外,英偉達還進一步推出 NVIDIA DGX 超級計算機,成為大語言模型實現突破背后的引擎。下圖展示了 DGX 超級計算機的典型結構。DGX 配有 8 個H100 GPU 模組,H100 配有 Transformer 引擎,旨在支持類似 ChatGPT 的大模型。這 8個 H100 模組通過 NVLINK Switch 彼此相連,以實現全面無阻塞通信。8 個 H100 協同工作,形成一個巨型 GPU。
235、通過 400 Gbps 超低延遲的 NVIDIA Quantum InfiniBand 進行網絡內計算,將成千上萬個 DGX 節點連接成一臺 AI 超級計算機,并不斷擴展應用范圍,成為全球客戶構建 AI 基礎設施的藍圖。圖表圖表67:NVIDIA DGX 超級計算機結構超級計算機結構 資料來源:GTC2023,華泰研究 主要云端推理芯片對比主要云端推理芯片對比沐曦沐曦MXN100天數 智鎧天數 智鎧MR-V100登臨登臨Goldwasser L256燧原 云燧燧原 云燧i20寒武紀 思元寒武紀 思元370Google TPU 3.0NVIDIA Tesla T4處理器名稱處理器名稱64(FP1
236、6)32(FP32)支持訓練支持訓練8.1(FP32)訓練計算性能(TFLOPS)160 INT8384 INT8256 INT8256 INT8256 INT8支持推斷支持推斷130 INT8推斷計算性能(TOPS)板級功耗150W45W150W75W200W70W功耗-819GB/S320 GB/S帶寬2.56 TOPS/W5.69 TOPS/W1.71 TOPS/W3.41 TOPS/W1.86 TOPS/W推斷能效比-12nm7nm12nm工藝節點 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。55 科技 科技 AI 大模型訓練和推理催生大模型訓練和推理催生 GPU 需求
237、上漲。需求上漲。目前 AI 訓練主要采用:1)英偉達在 AI 訓練GPGPU:包括 V100/A100/H100 以及美國限制出口后英偉達推出的裁剪版 A800。2)AMD 推出的 AI 訓練芯片包括 MI 250/250X/300。AI 服務器采用異構式架構,NVIDIA DGX A100 服務器 8 個 GPU+2 個 CPU 的配置遠高于普通服務器 12 個 CPU 的配置,能夠滿足 AI 大模型需求。IDC 預計,全球 AI 服務器市場規模穩健增長,2021-2026E CAGR預計達 17%。我們認為,AI 大模型將帶動算力需求增長,催生對 AI 服務器的需求。工業富聯、聯想、中興通
238、訊、紫光股份等公司有望把握住 AI 大模型帶來的機會,受益于 AI 服務器需求的持續提升。在推理芯片的選用方面,相較于訓練更多關注模型大小而言,推理更依賴于任務本質,以此決定所需芯片種類。當需要大量內容/圖像 AI 生成式時,需要 GPU 進行推理計算(如英偉達主流的 T4 芯片);而對于較簡單的推理過程(語音識別等),CPU 有時也會成為較好的推理引擎。圖表圖表68:AI 服務器和普通服務器的區別服務器和普通服務器的區別 資料來源:英偉達官網,浪潮官網,華泰研究 根據 IDC 數據,2014-2021 年,全球服務器廠商銷售總額總體呈上升趨勢,2021 年全球服務器市場規模達到 USD99b
239、n。其中,戴爾、HPE、聯想、浪潮市場份額排名前列,合計占比超過 40%。IDC 認為 2021-2026E 全球 AI 服務器廠商市場規模將穩健增長,2026年市場規模有望達 USD35mn,預計 2021-2026E CAGR 達到 17%。1H21 全球 AI 服務器廠商競爭格局相對集中,其中浪潮信息占比最高(20.2%),其后是戴爾、HPE、聯想。圖表圖表69:2014-2021 年全球服務器廠商市場規模年全球服務器廠商市場規模 圖表圖表70:4Q22 全球服務器廠商競爭格局全球服務器廠商競爭格局 資料來源:IDC,華泰研究 資料來源:IDC,華泰研究-5%0%5%10%15%20%2
240、5%30%35%02040608010012020142015201620172018201920202021銷售額同比增速(USDbn)ODM28.2%戴爾14.5%HPE11.8%聯想7.0%浪潮7.0%Super Micro5.0%IBM4.7%新華三4.1%華為2.9%Cisco2.2%其他12.7%免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。56 科技 科技 圖表圖表71:2021-2026E 全球全球 AI 服務器廠商市場規模服務器廠商市場規模 圖表圖表72:1H21 全球全球 AI 服務器廠商競爭格局服務器廠商競爭格局 資料來源:IDC,華泰研究 資料來源:IDC
241、,華泰研究 先進封裝先進封裝&材料:高算力需求帶動先進封裝需求材料:高算力需求帶動先進封裝需求 高算力需求帶動先進封裝需求,高算力需求帶動先進封裝需求,ABF 載板有望充分受益。載板有望充分受益。以 AI 大模型為基礎的 AIGC 新應用快速興起,對算力的要求提高,服務器單機將搭載更多的 CPU/GPU 等芯片,解決多芯片間高速互連的先進封裝成為關鍵。產業將從產業將從 2.5D 逐步走向逐步走向 3D 封裝,先進封裝助力高性能計算芯片實現超越摩爾定律封裝,先進封裝助力高性能計算芯片實現超越摩爾定律。高性能計算領域,先進封裝是超越摩爾定律的一項重要路徑,其能提供更高的系統集成度與芯片連接密度,芯
242、片系統將持續實現性能提升,同時兼顧功耗和面積。目前行業正從芯片/Chiplet 在平面上通過中介層、硅橋、高密度 RDL 等方式連接的 2.5D 封裝,逐步走向把存儲、計算芯片在垂直維度進行堆疊的 3D 封裝。我們看到 2.5D/3D 封裝領域主要方案提供者為:臺積電(3D Fabric 平臺),英特爾(EMIB/Foveros)、三星(3D TSV/X-Cube)、日月光(VIPack)等。圖表圖表73:先進封裝:從先進封裝:從 2.5D 走向走向 3D 封裝封裝 資料來源:ISSCC,華泰研究 而 IC 載板作為先進封裝的關鍵材料,有望進一步打開價值空間。尤其 ABF 載板,相較于BT 載
243、板具備層數多、面積大、線路密度高、線寬線距小等特點,更能承載 AI 高性能運算,在 CPU、GPU、FPGA、ASIC 等高運算性能 IC 放量預期下將更充分受益。據 Prismark預測,ABF 載板為 IC 載板行業規模最大、增速最快的細分領域,預計全球 ABF 載板市場規模 2026 年將達到 121 億美元,2021-2026 年 CAGR 為 11.5%。0510152025303540450510152025303540202120222023E2024E2025E2026E市場規模同比增速(USDmn)(%)浪潮信息20%戴爾14%HPE10%聯想6%華為5%IBM4%新華三4%
244、思科2%Oracle1%富士通1%其他33%免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。57 科技 科技 圖表圖表74:全球全球 IC 載板行業細分領域市場規模載板行業細分領域市場規模 資料來源:Prismark(含預測),華泰研究 長電科技等國內公司已在量產長電科技等國內公司已在量產 2.5D 封裝領域實現初步突破,未來將逐步進入封裝領域實現初步突破,未來將逐步進入 3D 封裝領封裝領域。域。2.5/3D 封裝核心在于以微小線寬距和微小中心距的微凸點為特點的高密度中介層互聯,包括 TSV(硅通孔)、RDL(重布線堆疊)、FO interposer(扇出型中介)、嵌入式芯片基板
245、。我們看到國內公司正在相關技術方面取得初步突破。長電科技 2022 年已突破帶 2.5D硅通孔 MCM 的大尺寸 FCBGA 技術,并進入小量產。未來其有望在 2.5D 封裝領域逐步成熟,并走向 3D 封裝領域。通富微電多層堆疊 NAND Flash 及 LPDDR 封裝實現穩定量產,并于 2022 年完成基于 TSV 技術的 3DS DRAM 封裝開發。設備方面,封裝設備國產替代空間廣闊,測試設備長期受益于設備方面,封裝設備國產替代空間廣闊,測試設備長期受益于 Chiplet 等趨勢。等趨勢。當前后道封裝設備主要由 Besi、Disco、K&S 等公司占據,國產化率較低。我們看到光力科技子公
246、司 ADT、LP 及 LPB 可提供涵蓋傳統封裝及先進封裝領域的劃片機產品,大族激光可提供半導體激光切割設備。此外,我們看到 Chiplet 技術可將不同工藝的小芯片集成,提升芯片系統的良率及降低成本,正在成為行業趨勢。我們認為未來成熟的 Chiplet 替代傳統SoC 方案,或將提升模擬、數?;旌系葴y試機需求,華峰測控在積極布局。光模塊:數據中心市場空間廣闊,光模塊:數據中心市場空間廣闊,2023 年有望迎年有望迎 800G 放量元年放量元年 全球光模塊市場穩健增長,數據中心光模塊市場空間廣闊。全球光模塊市場穩健增長,數據中心光模塊市場空間廣闊。根據 Lightcounting 于 2023
247、 年3 月發布的數據,20192021 年,全球光模塊市場規模從 89 億美元增長到 114 億美元,2022 年全球以太網光模塊出貨量達 6349 萬只,同比增長 11%,出貨金額達 50.72 億美元,同比增長 9%;Lightcounting 預計 2028 年全球以太網光模塊出貨量合計將達到 8576 萬只,出貨金額 82.97 億美元,對應 2023-2028 年復合增長率分別達 5%、9%。全球光模塊市場結構方面,CWDM/DWDM 光模塊和用于數據中心的以太網光模塊占比較高,二者出貨金額合計占比從 2019 年的 74%提升至 2021 年的 79%。92121050100150
248、20025020182019202020212022E2026EFC-BGA/LGA/PGAFC-CSP/FC-DRAMWB-PBGA/CSPBOC模組(億美元)免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。58 科技 科技 圖表圖表75:全球光模塊市場規模及預測(億美元)全球光模塊市場規模及預測(億美元)圖表圖表76:2021 年全球各品類光模塊出貨金額占比年全球各品類光模塊出貨金額占比 資料來源:LightCounting,華泰研究 資料來源:LightCounting,華泰研究 800G 有望迎接放量元年。有望迎接放量元年。隨著云計算、AI、元宇宙等技術產業的快速發展和傳統
249、產業數字化的轉型,全球范圍內數據快速的增長對網絡帶寬提出新的要求,有望催生光模塊速率升級需求。LightCounting 指出,AI 應用等帶來的數據流量的增長,超預期的數據中心帶寬需求以及光模塊廠商技術的迭代都是推動 800G 應用的動力。我們認為隨著 800G 光模塊有望迎來放量元年,國內頭部光模塊以及上游光器件、光芯片廠商有望迎發展機遇。根據 Lightcounting 預測,2028 年 800G 出貨量有望達 998 萬只,對應 2023-2028 年復合增長率為 72%。圖表圖表77:各速率全球以太網光模塊出貨量及預測各速率全球以太網光模塊出貨量及預測 資料來源:LightCoun
250、ting,華泰研究 國內光模塊廠商彰顯全球競爭力。國內光模塊廠商彰顯全球競爭力。根據 Lightcounting 于 2022 年 5 月發布的統計數據,2021 年全球前十大光模塊廠商,中國廠商占據六席,分別為旭創(與 II-VI 并列第一)、華為海思(第三)、海信寬帶(第五)、光迅科技(第六)、華工正源(第八)及新易盛(第九);相比于 2010 年全球前十大廠商主要為海外廠商,國內僅 WTD(武漢電信器件有限公司,2012 年與光迅科技合并)一家公司入圍,體現出十年以來國產光模塊廠商競爭實力及市場地位的快速提升。$0$1,000$2,000$3,000$4,000$5,000$6,000$
251、7,000$8,000$9,0002018 2019 2020 2021 2022 2023 2024 2025 2026 2027 202841%2%6%38%6%1%6%EthernetFibre ChannelOptical InterconnectsCWDM/DWDMWireless FronthaulWireless BackhaulFTTx05,000,00010,000,00015,000,00020,000,00025,000,00030,000,000201820192020202120222023202420252026202720281G10G25G40G50G100G2
252、00G400G800G1.6T 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。59 科技 科技 圖表圖表78:2021 年全球年全球 Top10 通信光模塊國產廠商占六席通信光模塊國產廠商占六席 廠商廠商 2010 2016 2018 2021 1 Finisar Finisar Finisar II-VI&旭創科技 2 Opnext 海信寬帶 旭創科技 3 Sumitomo 光迅科技 海信寬帶 華為海思 4 Avago Acacia 光迅科技 Cisco(Acacia)5 Source Photonics FOIT(Avago)FOIT(Avago)海信寬帶 6 Fujitsu
253、 Cclaro Lumentum/Oclaro 光迅科技 7 JDSU 旭創科技 Acacia Broadcom(Avago)8 Emcore Sumitomo Intel 華工正源 9 武漢電信器件 Lumentum AOI 新易盛 10 Neophotonics Source Photonics Sumitomo Molex 資料來源:LightCounting,華泰研究 數據中心網絡架構的演進帶動高速光模塊用量增長。數據中心網絡架構的演進帶動高速光模塊用量增長。隨著數據流量與算力的提升,數據中心網絡架構與容量都面臨更為嚴苛的挑戰,多平面 CLOS 網絡架構正逐步發展成為數據中心網絡架構的
254、主流。根據張璋數據中心演進發展對光通信器件模塊的影響的數據,從10G 網絡架構向多平面網絡架構演進時,盒式交換機用量提升,帶動光模塊應用數量迅速增長,以收斂比 1:3 計算容量,多平面 CLOS 架構光模塊應用相較于傳統 10G 網絡架構,光模塊應用數量快速增長。圖表圖表79:光模塊的發展趨勢光模塊的發展趨勢 資料來源:ITPUB,華泰研究 傳統可插拔光模塊技術演進難以支撐高算力背景下數據中心的可持續發展。傳統可插拔光模塊技術演進難以支撐高算力背景下數據中心的可持續發展。根據 Cisco 數據,在高算力背景下交換機交換芯片、光模塊功耗增長迅速,傳統可插拔光模塊技術演進難以支撐數據中心的可持續發
255、展,主要由于:1)SI(電傳輸)的實現遭遇材料瓶頸,PCB 傳輸高速電信號,在應用傳統可插拔光模塊時,信號傳輸距離長、傳輸損失大。更低損耗的可量產 PCB 材料面臨多重技術困難;2)功耗問題,滿載 1.6T 模塊設備功耗巨大,散熱設計難度大,3)成本問題,整機成本相應提升,會加大網絡建設的初期投入;4)端口設計密度無法持續提升,傳統可插拔光模塊系統在支持 128 端口時需要非常復雜的系統設計,模塊散熱難度較大。CPO 技術在技術在 AI 集群和集群和 HPC 中滲透率將逐步提升,預計在中滲透率將逐步提升,預計在 2027 年部署的年部署的 800G 和和 1.6T端口中,端口中,CPO 端口將
256、占到近端口將占到近 30%。根據 LightCounting 預測,未來 5 年時間內,AI 集群與 HPC 將會是 CPO 技術主要的兩大切入點,其背后的驅動力也是高算力、高帶寬的迫切需求。LightCounting 預計可插拔設備將在未來 5 年甚至更長時間內繼續主導市場,然而在2027 年部署的 800G 和 1.6T 端口中,CPO 端口將占到近 30%。Communications Industry Researchers(CIR)指出,2025 年全球共封裝光學元件(CPO)的銷售額將超過 13億美元,并預測至 2028 年全球共封裝光學器件的銷售額將會翻一番,達到 27 億美元。
257、免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。60 科技 科技 圖表圖表80:CPO 技術應用領域端口數量對比技術應用領域端口數量對比 圖表圖表81:2021-2027 年年 800G 與與 1.6T 端口技術類型端口技術類型 資料來源:LightCounting,華泰研究 資料來源:LightCounting,華泰研究 服務器產業鏈相關公司:工業富聯、環旭電子服務器產業鏈相關公司:工業富聯、環旭電子 工業富聯:服務器代工龍頭廠商,深度受益工業富聯:服務器代工龍頭廠商,深度受益 AI 服務器市場擴容帶來的機會服務器市場擴容帶來的機會 工業富聯作為提供服務器代工服務的龍頭廠商,將深
258、度受益于工業富聯作為提供服務器代工服務的龍頭廠商,將深度受益于 AI 服務器市場擴容帶來的服務器市場擴容帶來的機會,有望憑借高性能的機會,有望憑借高性能的 AI 服務器迎來營收增長。服務器迎來營收增長??蛻舴矫?,相較于 2021 年,2022 年工業富聯服務器營收中云服務商比重由 35%上升至 42%,來自云服務商客戶的營收占比持續提升;產品方面,伴隨著 AI 硬件市場迅速成長,公司 AI 服務器及 HPC 出貨增長迅速,在 2022 年云服務商產品中占比增至約 20%。算力時代的開啟為高效 AI 服務器提供了更廣闊的發展空間,據公司 2022 年報,相關新產品將在 2023 年陸續研發推出。
259、2022 年,工業富聯云服務設備占總營收比例超過 40%。環旭電子:服務器和高速交換機主機板供應商,協助客戶推出邊緣環旭電子:服務器和高速交換機主機板供應商,協助客戶推出邊緣 AI 計算服務器計算服務器 環旭為客戶提供 ODM/JDM/EMS 伺服器、存儲、NAS 和 SSD 產品以及制造服務,并提供 L10 系統設計服務,包括主機板、固件 BIOS 和 BMC、子卡(背板、附加卡等)、外殼和散熱設計以及系統集成。Al 服務器方面,環旭提供設計制造(JDM)服務,協助品牌客戶推出邊緣 Al 計算服務器。根據環旭電子 2022 年報,云端及存儲類業務營收達 69.89 億元,同比增長 45.8%
260、,占公司營收比例由 2021 年的 8.7%增長至 2022 年的 10.2%。我們認為,受益于 AI 帶來的云端及邊緣計算新需求,公司云端及存儲類產品營收有望實現長期穩健增長。計算芯片產業鏈相關公司:燧原科技、壁仞科技、寒武紀、京微齊力、芯計算芯片產業鏈相關公司:燧原科技、壁仞科技、寒武紀、京微齊力、芯動科技、沐曦集成電路、海光信息、登臨科技、中科馭數、摩爾線程、天動科技、沐曦集成電路、海光信息、登臨科技、中科馭數、摩爾線程、天數智芯、高云半導體、墨芯人工智能、智多晶、云天暢想數智芯、高云半導體、墨芯人工智能、智多晶、云天暢想 燧原科技(未上市):專注于人工智能云端領域,訓練、推理產品全覆蓋
261、燧原科技(未上市):專注于人工智能云端領域,訓練、推理產品全覆蓋 燧原科技成立于 2018 年 3 月,公司專注于人工智能云端領域,致力于成為中國領先的數據中心基礎設施提供商。公司創始人兼 CEO 趙立東曾歷任 AMD 產品工程部高級總監以及紫光集團副總裁,有近二十多年的 CPU/GPU/APU 研發經驗;創始人兼 COO 張亞林在AMD 亦有長達十年的任職經歷,期間曾領導開發全球最大融合芯片 APU,產業經驗豐富。2021 年公司接連發布第二代訓練產品云燧 T20/T21 和第二代推理產品云燧 i20,其中云燧i20 單精度 FP32 峰值算力達到 32TFLOPS,整型 INT8 峰值算力
262、達到 256TOPS,分別較第一代推理產品提升 1.8/3.6 倍,存儲帶寬高達 819GB/s,領先于行業同類產品水平。公司成立至今已完成多輪融資,累計融資超 30 億元,其中 2022 年 8 月完成 C+輪融資,大基金二期入股。騰訊作為公司戰略投資方,為其提供廣泛應用場景,雙方針對 AI 的多種應用場景進行深度合作,有利推動公司產品研發突破進程。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。61 科技 科技 壁仞科技(未上市):致力于打造通用計算體系和軟硬件平臺,多次刷新融資紀錄壁仞科技(未上市):致力于打造通用計算體系和軟硬件平臺,多次刷新融資紀錄 壁仞科技創立于 201
263、9 年,公司致力于開發原創性的通用計算體系,建立高效的軟硬件平臺,同時在智能計算領域提供一體化的解決方案。發展路徑上,公司首先聚焦云端通用智能計算,逐步在人工智能訓練和推理、圖形渲染等多個領域趕超現有解決方案,實現國產高端通用智能計算芯片的突破。2022 年 8 月 9 日,壁仞科技在上海發布首款通用 GPU 芯片 BR100,16 位浮點算力達到 1000T 以上、8 位定點算力達到 2000T 以上,單芯片峰值算力達到 PFLOPS 級別,標志著中國的通用 GPU 芯片邁上“每秒千萬億次計算”新臺階。成立以來,公司在短時間內完成了由頂級投資機構啟明創投、IDG 資本、華登國際中國基金、高瓴
264、創投等領投的多輪融資。公司于 2020 年 6 月完成 A 輪融資,總額為 11 億元,創近年芯片設計領域新紀錄。2021 年 3 月,公司完成 B 輪融資,累計融資額超 47 億元,繼續刷新芯片設計領域融資速度及融資規模紀錄。寒武紀:國內寒武紀:國內 AI 芯片先行者芯片先行者 寒武紀成立于 2016 年,專注于人工智能芯片產品的研發與技術創新,可為云端、邊緣端、終端提供全品類系列化智能芯片和處理器產品。公司研發團隊實力雄厚,創始人陳天石曾在中科院計算所擔任研究員、博士生導師,在人工智能和處理器芯片等相關領域從事基礎科研工作十余年,具備堅實的理論功底和豐富的研發經驗。截至 2022 年底,公
265、司研發人員數量達 1205 人,占公司總人數 79.49%。公司已推出思元 100、思元 220、思元 270、思元 290、思元 370 等多款處理器芯片,面向互聯網、金融、交通、能源、電力和制造等領域的復雜 AI 應用場景提供算力支持。2018-2022 年,公司營收從 1.17 億元增長至 7.29億元,年均復合增長率達到 57.99%。京微齊力(未上市):國產京微齊力(未上市):國產 FPGA 領軍廠商,立足消費市場開拓高端領軍廠商,立足消費市場開拓高端 京微齊力成立于 2017 年,是國內最早進入自主研發、規模生產、批量銷售通用 FPGA 芯片及新一代異構可編程計算芯片的企業之一。公
266、司擁有超 200 件專利,具備獨立完整的自主知識產權,涵蓋 FPGA 內核設計、SOC 架構設計、芯片開發、EDA 軟件開發、IP 開發與集成等全棧技術領域。公司制定了四大產品方向:面向數據中心/電動汽車/5G 的高端FPGA 芯片;面向人工智能的 AiPGA(AI in FPGA)芯片;面向新基建/工業物聯網的異構計算 FPGA 和 HPA(Heterogeneous Programmable Accelerator)芯片;面向嵌入式應用的 eFPGA(embedded FPGA)核。目前,公司產品在 65/55/40nm 工藝節點上全面實現量產,22nm 產品從 2022 年開始規模量產,
267、產品應用場景涵蓋通信、工業、安防、電力、醫療、消費等領域。芯動科技(未上市):國內一站式芯動科技(未上市):國內一站式 IP 和芯片定制領軍企業和芯片定制領軍企業 芯動科技是擁有 17 年歷史的中國一站式 IP、芯片定制及 GPU 領軍企業,聚焦計算、存儲、連接等三大賽道,提供全球各大工藝廠從 55 納米到 5 納米 FinFET 全套高速 IP 和高性能定制芯片解決方案。公司 17 年以來已賦能全球數百家知名客戶,授權逾 100 億顆高端SoC 芯片進入規模量產,擁有 100%成功率以及超過十億顆 FinFET 定制芯片成功量產的驕人業績。并先后推出了國內第一款 4K 級多路服務器 GPU、
268、第一款 4K 級 4 屏桌面和嵌入式 GPU 并快速進入商用,性能強勁,跑分領先,功耗低,自帶智能計算能力。2023 年5 月 20 日,芯動科技在全國科技活動周暨北京科技周活動透露正在研發新一代的風華 3 號GPU 將支持光線追蹤等先進技術。公司歷史客戶群涵蓋中興通訊、瑞芯微、全志、君正等國內前十設計公司,以及高通、微軟、AMD、亞馬遜、安盛美等全球知名企業。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。62 科技 科技 沐曦集成電路(未上市):國產高性能沐曦集成電路(未上市):國產高性能 GPU 芯片解決方案供應商芯片解決方案供應商 沐曦集成電路成立于 2020 年,致力于為
269、異構計算提供全棧 GPU 芯片及解決方案。公司創始團隊產業經歷豐富,創始人陳維良曾任 AMD 全球 GPGPU 設計總負責人,兩位 CTO 均為前 AMD 首席科學家,目前分別負責公司軟硬件架構,核心成員平均擁有近 20 年高性能GPU 研發經驗。目前公司已推出 MXN 系列 GPU(曦思)用于 AI 推理,MXC 系列 GPU(曦云)用于 AI 訓練及通用計算,以及 MXG 系列 GPU(曦彩)用于圖形渲染,可滿足數據中心對高能效和高通用性的算力需求。產業合作方面,公司已與服務器 OEM、大數據中心、互聯網、運營商等行業客戶建立緊密的合作關系,并與清華大學、浙江大學等眾多知名高校和研究機構密
270、切開展產學研合作,持續推進產業上下游生態的建設。海光信息:國產海光信息:國產 CPU 及及 DCU 領軍企業領軍企業 海光信息成立于 2014 年,專注于高端處理器的研發與設計,是國內重要的高性能 CPU 及DCU 產品供應商。公司擁有實力雄厚的研發團隊,截止 2022 年底,研發技術人員達到1283 人,其中碩士及以上學歷人員占比達 75.84%,多數核心研發人員具有二十年以上高端處理器研發經驗,為公司不斷取得產品突破打下堅實基礎。公司 CPU 產品包括 7000 系列、5000 系列和 3000 系列,分別面向高端、中低端、工作站和邊緣計算服務器市場。公司 CPU 產品基于市場主流 X86
271、 指令集,具有成熟豐富的應用生態,當前在浪潮、聯想、新華三、同方等多家國內知名服務器廠商產品中得到廣泛應用。此外,海光信息 DCU 系列產品深算一號已經實現商業化應用,深算二號正處于研發階段。2022 年公司實現營業收入 51.25 億元,同比增長 121.83%;歸母凈利潤 8.04 億元,同比增長 145.65%。登臨科技(未上市):致力于開發兼容現有生態的創新通用人工智能芯片登臨科技(未上市):致力于開發兼容現有生態的創新通用人工智能芯片 登臨科技成立于 2017 年,是一家專注于自主創新,構建基于 GPGPU 核心技術的云端 AI計算平臺公司。公司核心團隊成員來自圖芯、S3、英偉達、A
272、MD、阿里等全球知名的芯片設計公司。公司產品采取兼容 CUDA 的技術路線,保證客戶業務可繼承現有生態上的投入,且相比傳統 GPU 在 AI 計算上性能和能效均有明顯提升,大大降低外部帶寬的需求,顯著降低客戶成本。2020 年 6 月公司 Goldwasser 系列產品在臺積電 12nm 工藝上FullMask 流片成功。2021 年 7 月,百度飛槳適配登臨 GPU+系列芯片,加速 AI 應用落地;同年 11 月公司 Goldwasser 系列產品已實現量產。作為國內首個實現規?;虡I落地的GPU 企業,登臨首款基于 GPU+的創新 AI 加速器-Goldwasser(髙凜)已規?;\用在邊
273、緣至云計算的各個應用場景,成功填補國內高性能 GPGPU 領域技術、產品及商業方面的空白。今年,登臨的新一代 Goldwasser(高凜)產品針對基于 Transformer 的網絡和生成式 AI 類大模型的應用在性能有大幅提升,對標國際大廠的產品有明顯的能效比和性價比的優勢。近日,登臨完成新一輪融資,將進一步夯實其產品與研發能力。此前,登臨科技更是獲得了多家產業、知名頭部企業及基金的投資。中科馭數(未上市):國內領先中科馭數(未上市):國內領先 DPU 芯片提供商芯片提供商 中科馭數成立于 2018 年,聚焦于專用數據處理器的研發與設計,主要產品包括 DPU 芯片、超低時延 DPU 網卡、數
274、據查詢加速 DPU 卡等產品和解決方案。公司為國內較早進行DPU 芯片研發的團隊,創始人兼 CEO 鄢貴海博士、聯合創始人兼 CTO 盧文巖博士及首席科學家李曉維博士均來自中科院計算所,在芯片架構領域有 20 年的技術積累。目前公司已累計申請 157 項發明專利,其中 83 項已獲得授權。中科馭數 DPU 芯片基于自主研發的 KPU 芯片架構,目前公司已經完成了四類 KPU 芯片架構設計,包括 1)KPU-Swift 針對網絡協議處理設計;2)KPU-Conflux 針對時間序列/大數據分析設計;3)KPU-Trusy針對安全領域處理設計,4)KPU-FlexFlow 針對智能計算設計,并在網
275、絡、數據庫等應用領域積累了 80 余類功能核。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。63 科技 科技 摩爾線程(未上市):核心團隊產業經驗豐富,商業化應用持續加速摩爾線程(未上市):核心團隊產業經驗豐富,商業化應用持續加速 摩爾線程創立于 2020 年 10 月,專注于研發設計全功能 GPU 芯片及相關產品,支持 3D圖形渲染、AI 訓練與推理加速、超高清視頻編解碼、物理仿真與科學計算等多種組合工作負載。創始人張建中為原英偉達全球副總裁、中國區總經理,公司團隊其它成員來自微軟、英特爾、AMD、ARM 等海外芯片巨頭,具有深厚產業經驗。2021 年 11 月,摩爾線程宣布首
276、顆國產全功能 GPU 芯片研制成功,開創了國產 GPU 研發速度的先河。公司已發布兩顆基于其 MUSA 統一系統架構打造的多功能 GPU 芯片“蘇堤”和“春曉”,以及系列GPU 軟件棧與應用工具,并已迅速將多款 MTT S 系列顯卡推向市場,覆蓋桌面、邊緣和數據中心等多個場景。2022 年公司聯合數家 OEM 合作伙伴斬獲大型央企和大型國有銀行臺式機采購大單,上萬臺搭載摩爾線程 MTT S 系列顯卡的國產 PC 將廣泛應用于我國電信、金融行業的數字辦公業務場景,將顯著提升國產 PC 的應用體驗。2023 年 5 月,公司宣布了一系列新產品與技術更新,涵蓋數字辦公、娛樂與創作、AI 與云計算以及
277、元宇宙等GPU 重要應用場景,標志著摩爾線程為用戶提供的高品質、易部署、創新性應用型解決方案取得重大進展。天數智芯(未上市):專注高端通用天數智芯(未上市):專注高端通用 GPU 設計,賦能千行百業實現算力升級設計,賦能千行百業實現算力升級 天數智芯于 2018 年成立并啟動 7 納米通用并行計算芯片(通用 GPU)設計,是中國領先的通用 GPU 高端芯片及超級算力系統提供商。公司研發實力雄厚,研發團隊人數占比 80%以上,既包含一批行業經驗超過 20 年的世界級技術專家,同時也包含一大批具備 5-15 年業界經驗的高執行力技術菁英。2020 年 12 月,公司成功點亮國內第一款 7nm 云端
278、訓練通用 GPU 產品天垓 100,并于 2021 年 3 月正式對外發布,2021 年三季度規模量產,是國內第一家實現通用 GPU 量產的硬科技企業。2022 年 12 月,公司通用 GPU 推理產品智鎧 100 發布,標志著天數智芯成為云邊協同、訓推組合的完整通用算力系統全方案提供商。2022 年 7 月,公司宣布完成超 10 億元人民幣的 C+及 C+輪融資,本輪融資將助力公司量產 AI 推理芯片智鎧 100,開發第二三代 AI 訓練芯片天垓 200 及 300。高云半導體(未上市):三大產品系列聚焦民用高云半導體(未上市):三大產品系列聚焦民用 FPGA 市場市場 高云半導體成立于 2
279、014 年,是一家專業從事現場可編程邏輯器件(FPGA)研發與設計的國產集成電路設計公司,提供從芯片、EDA 開發軟件、IP、開發板到整體系統解決方案的一站式服務。公司核心研發成員來自于 Lattice,Cadence 等全球知名公司,擁有國內極少數全面掌握 FPGA 設計與產業化核心技術的研發團隊,高云半導體致力于 FPGA 芯片的正向開發,堅持自主創新及國產替代并行策略,目前已形成小蜜蜂、晨熙、Arora V 三大產品序列,迄今已發布百余款芯片,產品均擁有自主知識產權。高云半導體于 2015 年一季度推出第一款 55nm 工藝 400 萬門的中密度 FPGA 芯片和第一版 EDA 工具云源
280、軟件;2016 年第一季度順利推出國內首顆 55nm 嵌入式 Flash SRAM 的非易失性 FPGA 芯片;2017 年產品進入市場應用,開始批量出貨;2019 年,發布國內第一顆 FPGA 車規芯片,FPGA 芯片年出貨量突破千萬片級別;2022 年高云發布其最新工藝節點,即采用 22nm SRAM 工藝的晨熙家族第 5 代(Arora V)高性能 FPGA 產品,除了工藝的優勢,還集成了自研的核心模塊,包括高速 SerDes 模塊,MIPI 硬核,為通訊及AI 運算加速的全新架構的 DSP 模塊等。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。64 科技 科技 墨芯人工智
281、能(未上市):稀疏計算推動大模型發展墨芯人工智能(未上市):稀疏計算推動大模型發展 墨芯成立于 2018 年,總部位于中國深圳,在上海、北京、硅谷設有辦公室。擁有來自學界與業界的全球頂級創始團隊,團隊包括卡內基梅隆大學 AI 科學家、世界頂尖半導體公司(Intel、Marvell 和 Oracle 等)核心高量產芯片研發團隊的核心成員,深耕行業二十余年,具有數十款產品、超 50 億主流芯片量產經驗。墨芯人工智能是稀疏化計算引領者,致力于提供云端和終端 AI 計算平臺和服務。在最近的 MLPerf 評測中,墨芯憑借軟硬協同的稀疏計算技術在 ResNet50 模型上蟬聯冠軍。其 S40 計算卡以
282、127,375 FPS 獲得單卡算力全球第一;S30 計算卡以 383,520 FPS 算力獲整機 4 卡算力全球第一。墨芯 AI 計算卡系列是基于其稀疏計算 AI 芯片 12nm Antoum,性能超越了 4nm 工藝的 GPU,展現出稀疏計算的強大優勢。稀疏計算能夠為 AI 大模型帶來數十倍的加速性能,有力推動 AI 在各行業、各領域的廣泛應用。智多晶微電子(未上市):國產智多晶微電子(未上市):國產 FPGA 領軍企業,從領軍企業,從 LED 走向工控、通訊廣闊市場走向工控、通訊廣闊市場 智多晶微電子成立于 2012 年,專注可編程邏輯電路器件技術的研發,并為系統制造商提供高集成度、高性
283、價比的可編程邏輯器件、可編程邏輯器件 IP 核、相關軟件設計工具以及系統解決方案。智多晶的創始人及核心團隊由國際知名 FPGA 公司產品開發骨干以及學術界資深 FPGA 科研人員組成。依托多年來建立的業內領先 EDA 軟件、FPGA 硬件設計能力,公司已經實現了 55nm-28nm 工藝 FPGA 的規模量產,并已開始 14nm 產品的研發工作,邏輯資源覆蓋 5K、12K、25K、30K、100K,相關產品廣泛應用于 LED 視頻處理、工業控制、通訊、消費電子等領域,并針對性推出了內嵌 Flash、SDRAM 等集成化方案產品。主要產品包括 Seagull 1000 系列(0.162um 工藝
284、)、Sealion 2000 系列(55nm 工藝)、Seal 5000 系列(28nm 工藝)。此前,智多晶已完成多輪融資,過往投資方包括盛宇投資、超越摩爾資本、臨芯投資、深創投、宏燚投資、華御投資、華天科技、龍鼎投資等。云天暢想(未上市):云天暢想(未上市):先進算力服務提供商,從云游戲向先進算力服務提供商,從云游戲向 AI 計算拓展計算拓展 云天暢想創立于 2016 年,專注于為數字世界提供端到端的先進算力基礎設施及服務,應用于云游戲、AIGC、元宇宙、自動駕駛等實時交互、海量算力需求應用場景,下游客戶包括運營商、云服務商、互聯網公司、游戲開發商及政企單位等超百家企業機構。云天暢想是中國
285、三大運營商 5G 邊緣云解決方案的主要供應商,同時在圖形圖像計算領域擁有領先的市場地位,為多個爆款游戲提供算力解決方案和云服務;云天暢想也在不斷拓展應用場景和海外市場,在虛擬現實、AI 推理和自動駕駛等領域提供算力解決方案,并于今年 6月與沙特卓越控股公司簽約了戰略合作協議,推廣海外業務落地。作為創新技術驅動的硬核科技公司,云天暢想搭建了全球化的創始團隊,擁有來自 Intel、SIE、騰訊的創新基因,成員均為 GPU 芯片、服務器架構、3D 渲染、視頻云計算、通訊網絡等領域專家。公司員工近 400 人,其中 80%為技術研發人員,并在中國深圳、北京和日本東京設有研發中心。2023 年 5 月,
286、云天暢想宣布獲得數千萬美元的 C+輪融資,鞏固了行業領跑者的地位。光通信產業鏈相關公司:長光華芯、源杰科技、云嶺光電、蘇州熹聯、天光通信產業鏈相關公司:長光華芯、源杰科技、云嶺光電、蘇州熹聯、天孚通信、中際旭創孚通信、中際旭創 長光華芯:光耀中國芯,激光芯片國產化領軍者長光華芯:光耀中國芯,激光芯片國產化領軍者 深耕高功率半導體激光芯片,縱向深耕高功率半導體激光芯片,縱向+橫向打造激光產業“中國芯”。橫向打造激光產業“中國芯”。公司系國內少數具備高功率激光芯片量產能力的企業之一,實現了高功率激光芯片的國產化與進口替代。根據公司招股書測算,2020 年公司占國內高功率半導體激光芯片市場份額的 1
287、3.4%,位居國產廠商第一位,2021 年公司已實現 30W 單管芯片量產,技術實力全球領先。在產品布局上,一方面,公司通過縱向延伸打通芯片器件模組半導體激光器產業鏈條,實現了在高功率單管系列、高功率巴條領域的全產業鏈布局;另一方面,公司基于高功率半導體激光芯片的技術優勢以及設計和量產能力,切入 VCSEL 及光通信芯片賽道,已建立了 VCSEL產品包含外延生長、條形刻蝕、端面鍍膜、劃片裂片、特性測試、封裝篩選和芯片老化的完整工藝線。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。65 科技 科技 源杰科技:國內領先的高速率激光芯片廠商,源杰科技:國內領先的高速率激光芯片廠商,ID
288、M 模式鑄就核心競爭力模式鑄就核心競爭力 優質高速率半導體光芯片供應商,進入國內外知名運營商網絡供應體系。優質高速率半導體光芯片供應商,進入國內外知名運營商網絡供應體系。公司聚焦于光芯片行業,主要產品包括 2.5G、10G、25G 及更高速率激光器芯片系列產品等。經過多年研發和產業化積累,公司已擁有多條覆蓋 MOCVD 外延生長、光柵工藝、光波導制作等全流程自主可控的生產線,實現向客戶 A1、海信寬帶、中際旭創、博創科技、銘普光磁等國際前十大以及國內主流光模塊廠商批量供貨,產品最終應用于中國聯通、中國電信、AT&T 等國內外知名運營商網絡中,已成為國內領先的光芯片供應商。由于下游客戶在選擇光芯
289、片產品時需要經過較長的驗證過程,公司率先進入供應商體系,建立了較高的客戶資源壁壘。低速率激光芯片市場實現差異化,并率先攻克高速率激光芯片市場。低速率激光芯片市場實現差異化,并率先攻克高速率激光芯片市場。國內光芯片市場中,2.5G、10G 激光器芯片市場國產化程度較高,但不同波段應用場景不同,工藝難度差異大,公司憑借長期技術積累為光模塊廠商提供全波段、多品類的產品,同時提供更低成本的集成方案,實現差異化競爭,據 CIC,公司在 2.5G 及以下光芯片市場中發貨量占比為 7%;25G 及更高速率激光器芯片國產化率低,公司憑借核心技術和 IDM 模式,率先攻克技術難關,打破國外壟斷,并實現 25G
290、激光器芯片系列產品大批量供貨。云嶺光電:致力于成為國際一流的光芯片供應商云嶺光電:致力于成為國際一流的光芯片供應商 專注中高端光芯片市場,擁有自主知識產權。專注中高端光芯片市場,擁有自主知識產權。武漢云嶺光電有限公司由國際領先的芯片專家團隊與華工科技于 2018 年 1 月共同發起設立,承載近 20 年的技術探索與市場實踐,專注于中高端光通信半導體光芯片產品,是擁有完全自主知識產權,具備全流程生產能力的IDM 光芯片企業。云嶺光電主營業務為 2.5G/10G/25G 全系列激光器(LD)和探測器(PD)光芯片及封裝類產品。公司建有光芯片研制平臺,擁有 MOCVD 材料生長,器件工藝制備,和后端
291、測試封裝的完整生產線,從海外引入具有國外光芯片大廠多年工作經驗的核心技術團隊,掌握10G/25G 高速率光收發芯片設計、高質量材料生長、關鍵工藝制備、和封裝測試等核心技術。公司具備年產芯片 7500 萬顆、TO 7200 萬只的生產能力,致力于成為世界一流的光芯片企業,為全球光通信企業提供優質全系列光芯片。蘇州熹聯:以硅光科技構建數字化未來蘇州熹聯:以硅光科技構建數字化未來 高效能光通信解決方案提供商。高效能光通信解決方案提供商。蘇州熹聯光芯微電子科技有限公司成立于 2020 年 7 月 20日,由半導體、硅光及金融等領域多位資深專家領頭,致力于打造硅光領先技術平臺,努力推動全球 5G、數據中
292、心及數字化進程。為了快速實施在硅光領域的戰略布局,熹聯光芯于 2021 年 10 月份完成了對德國 Sicoya GmbH 的 100%股權并購。公司以蘇州為總部,以上海和柏林研發中心為雙引擎,結合國內制造基地強大的量產實力,將快速實現推動硅光科技的發展。全球硅光科技引領者,占據高端。全球硅光科技引領者,占據高端。公司在硅光領域有 10 多年的技術積累和儲備,擁有硅光領域完整的自有設計器件 IP 組合,同時擁有光電一體全集成化的硅光芯片技術。公司擁有完善的專利體系,核心技術能夠涵蓋多種產品和應用領域,在無線通信、數據通信(光引擎&光模塊)、服務器網絡、智能駕駛、激光雷達、生物傳感等多領域擁有技
293、術儲備和商業合作。目前在全球范圍擁有 50 多項硅光授權發明專利,同時還有 50 多項正在申請中。公司目前擁有多家全球行業一流的客戶,均在穩定的批量交貨和商業技術合作中。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。66 科技 科技 天孚通信:光器件整體解決方案引領者天孚通信:光器件整體解決方案引領者 致力成為光器件領域引領者,打造全球光網絡優質鏈接。致力成為光器件領域引領者,打造全球光網絡優質鏈接。蘇州天孚光通信股份有限公司(簡稱 TFC)2005 年成立,是業界領先的光器件整體解決方案提供商。公司于 2015 年登陸中國創業板,目前已成為光器件細分行業龍頭企業。產品廣泛應用于
294、光纖通信及光學傳感,智能汽車,生命科學等領域。天孚通信致力于成為引領光器件領域發展的國際一流企業,為全球光網絡暢通提供優質連接。公司上市以來總營收實現穩定增長,光有源器件板塊營收總體高增長。公司上市后加碼研發投入力度,不斷推出新的產品,拉動營收增長。2020 年公司在光引擎研發方面取得重大進展,光有源板塊同比增長迅速,推動公司整體營收與凈利潤快速提升。中際旭創:全球光模塊行業龍頭,中際旭創:全球光模塊行業龍頭,800G 產品有望快速上量產品有望快速上量 全球光模塊龍頭,全球光模塊龍頭,AI 帶動公司帶動公司 800G 產品快速上量。產品快速上量。公司集高端光通信收發模塊的研發、設計、封裝、測試
295、和銷售于一體,在云數據中心領域,為客戶提供 100G、200G、400G和 800G 的高速光模塊,在電信領域,為客戶提供 5G 前傳、中傳和回傳光模塊以及應用于骨干網和核心網傳輸光模塊等高端整體解決方案。據 Lightcounting 統計的全球光模塊市場份額排名,公司與 II-VI 市場份額并列全球第一位,體現出公司卓越的技術研發能力、成本及交付能力優勢。2023 年以來,以 ChatGPT 為代表的 AIGC 應用驅動數據流量持續增長,加速光模塊向 800G 及以上產品迭代,據 Lightcounting,800G 光模塊產品有望拉動新一輪行業增長,公司作為 800G 光模塊的主力供應商
296、有望深度受益。云計算產業鏈相關公司:道客云、鵬云網絡、云計算產業鏈相關公司:道客云、鵬云網絡、StreamNative 道客云:國內領先容器云平臺和企業級解決方案提供商道客云:國內領先容器云平臺和企業級解決方案提供商 國內領先的企業級國內領先的企業級 PaaS 解決方案提供商。解決方案提供商。DaoCloud 道客科技(未上市)成立于 2014 年底,是一家容器云平臺和企業級解決方案提供商,提供包括持續集成、持續交付、發布管理、鏡像托管等在內的基于容器技術的全套開發運維生命周期服務,同時與國內外 IaaS云計算平臺對接,實現云端應用從開發、測試、部署到運維的完整容器化工具鏈。高兼容技術適配不同
297、業務類型,深耕垂直行業打造標桿項目。高兼容技術適配不同業務類型,深耕垂直行業打造標桿項目。公司產品技術實現跨云和大規模部署,同時兼容適配各種開發方向,能夠適應各行業企業的架構特點。成立迄今,公司已在金融科技、先進制造、智能汽車、零售網點、城市大腦等多個領域深耕,標桿客戶包括交通銀行、浦發銀行、上汽集團、東風汽車、海爾集團、金拱門(麥當勞)。鵬云網絡:深耕云原生存儲,技術能力領先鵬云網絡:深耕云原生存儲,技術能力領先 十年深耕軟件定義存儲,國內率先大規模商用。十年深耕軟件定義存儲,國內率先大規模商用。鵬云網絡(未上市)創立于 2012 年,創始團隊集結了來自亞馬遜、EMC 等全球知名企業專家骨干
298、,并率先在國內開展大規模商用軟件定義存儲產品。歷經近十年發展,鵬云網絡憑借完全自主知識產權,成為行業領先的軟件定義分布式智能存儲軟件與服務提供商。鵬云網絡云原生存儲平臺 ZettaStor HASP,通過自研的高性能用戶態文件系統、跨異構存儲多副本冗余保護、存儲資源統一靈活編排、與容器平臺緊密集成的四大核心技術特性,滿足了容器化應用對存儲系統性能及可靠性的多樣化需求。目前鵬云網絡服務對象已經廣泛覆蓋電信、金融、能源、政府、軍隊、公安、制造業、醫療、教育、科研等 20 多個行業,主要客戶包括華泰證券、遼寧移動、福建聯通、中國電子 32 所、航天科技、CEIEC、龍江環保等,客戶服務網絡遍布全國
299、31 個省市及自治區。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。67 科技 科技 StreamNative:云原生批流融合數據平臺:云原生批流融合數據平臺 圍繞圍繞 Apache Pulsar,StreamNative 打造下一代批流融合數據平臺。打造下一代批流融合數據平臺。StreamNative(未上市),成立于 2019 年,由 Apache Pulsar 與 Apache BookKeeper 創始團隊成員組建,圍繞 Apache Pulsar 打造開源云原生批流融合數據平臺,助力企業挖掘實時數據價值。公司為 Apache Pulsar 的商業化公司,也是全球唯一的
300、Apache Pulsar 技術原廠,不斷推動Apache Pulsar 和 BookKeeper 社區與生態建設。作為大數據平臺基礎設施組件,流數據平臺的重要性日益提升。作為大數據平臺基礎設施組件,流數據平臺的重要性日益提升。Apache Pulsar 是下一代云原生分布式消息流平臺,集消息、存儲、輕量化函數式計算為一體,采用計算與存儲分離架構設計,支持混合公有云部署,可覆蓋 AWS、Microsoft Azure、Google 云、阿里云等全球范圍的主流云計算平臺,是云原生時代解決實時消息流數據傳輸、存儲和計算的最佳解決方案。目前項目和社區正在快速發展,已有眾多國內外大型互聯網和傳統行業公
301、司采用 Pulsar,使用案例分布在人工智能、金融、電信運營商、直播與短視頻、物聯網、零售與電子商務、在線教育等多個行業。隨著未來數據基礎設施的普及,流數據的接收、存儲和計算會成為企業的共性需求,流數據平臺作為基礎軟件的重要地位日益提升。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。68 科技 科技 AI 賦能百業:產業變革的奇點賦能百業:產業變革的奇點 自 OpenAI 發布 ChatGPT 掀起 AI 浪潮以來,國內外科技巨頭陸續在 AI 大模型領域加快布局,人工智能也因此催生出許多創新性領域以及傳統領域多個環節的變革,有望實現下游應用百花齊放。其中,企業服務領域企業服務領域
302、,AI 賦能辦公行業生產力、溝通和協作工具,持續帶動生產效率及溝通協作效率提升;汽車領域汽車領域,AI 模型的引入增強了智能駕駛在感知、預測和決策方面的能力,加速無人駕駛的應用與落地;工業領域工業領域,AI 加碼助力工業研發、生產、管理及服務等全環節,極大解放生產力,加速工業智能化水平;金融領域金融領域,AI 在銀行、保險、資管、投研、投顧等多個細分領域正在落地或擁有潛在落地場景,幫助金融機構降本增效。我們認為,伴隨技術和各大模型的升級迭代,AI 將賦能百業,催生出更多環節的創新型變革。AI+企業服務:賦能生產力企業服務:賦能生產力/溝通溝通/協作工具協作工具 數字化時代,辦公行業生產力、溝通
303、、協作工具不斷演進,持續帶動生產效率及溝通協作數字化時代,辦公行業生產力、溝通、協作工具不斷演進,持續帶動生產效率及溝通協作效率提升效率提升。以 Microsoft 365 Copilot 為例,Copilot 通過把 GPT-4 提供的內容生成功能,與存儲在 Graph 數據庫中的企業數據,以及 Word、Powerpoint、Excel、Outlook、Teams 等辦公工具相結合,提供包括內容(包括文字、圖片)創作、數據分析、輔助決策等一系列新功能,功能豐富度上,遠超 notion.ai 等現有的基于 AI 的辦公軟件。圖表圖表82:數字化辦公行業發展歷程數字化辦公行業發展歷程 資料來源
304、:各公司官網、華泰研究 AI+生產力工具:強化分析、總結、創作能力生產力工具:強化分析、總結、創作能力 融合融合 GPT 能力的新版能力的新版 Word 可與用戶一起寫作、編輯、總結、創作??膳c用戶一起寫作、編輯、總結、創作。據微軟 Copilot 365發布會,融合 GPT 能力的 Word 已具備自動生成、自動排版、摘要生成、常見問答生成等功能。1)自動生成:)自動生成:根據指定的內容、指定的話題、指定的文檔/表格,自動生成文本內容;2)自動排版:)自動排版:根據用戶的展示需求,對文本進行指定參考風格的自動美化;3)摘要)摘要生成:生成:根據已有文本生成大綱/摘要/問答等總結性內容,并支持
305、二次編輯;4)風格改寫:)風格改寫:根據已有文本進行語言風格、文本類型改寫,適應不同的業務場景。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。69 科技 科技 圖表圖表83:Word 中的中的 Copilot 能夠根據指令自動生成文件初稿能夠根據指令自動生成文件初稿 資料來源:微軟官網、華泰研究 融合融合 GPT 能力的新版能力的新版 Excel 可幫助用戶分析數據趨勢、實現數據可視化??蓭椭脩舴治鰯祿厔?、實現數據可視化。根據發布會展示,融合 GPT 能力的 Excel 已具備自動數據分析、基于自然語言的深度加工、預測、圖表可視化等功能。1)自動數據分析:)自動數據分析:根據
306、已有數據進行自動化數據分析并給出關鍵信息總結;2)深度分析:)深度分析:根據用戶的深入分析需求,新建總結的 sheet 和圖表并展示加工后的數據,并支持自然語言優化;3)深度預測:)深度預測:根據用戶需求進行數據的預測并自動生成新的工作區域;4)圖表可視化:)圖表可視化:根據數據與自然語言描述,自動生成符合用戶期待的可視化圖像。融合融合 GPT 能力的新版能力的新版 PowerPoint 可根據用戶的想法自動生成演示文稿??筛鶕脩舻南敕ㄗ詣由裳菔疚母?。根據發布會展示,融合 GPT 能力的 PowerPoint 已具備演示文稿自動生成、設計美化、note 生成等功能:1)演示文稿自動生成:)
307、演示文稿自動生成:根據已有文稿自動生成 PPT 初稿(可指定頁數、圖片);2)自然)自然語言設計美化:語言設計美化:根據用戶需求,使用自然語言命令來增減頁數、調整布局、重新格式化文本和制作動畫;3)Note 生成:生成:根據用戶需求/頁面變化自動生成 PPT 的備注內容,方便用戶進行 PPT 演示講解。圖表圖表84:PowerPoint 中的中的 Copilot 能夠根據指令自動生成幻燈片能夠根據指令自動生成幻燈片 資料來源:微軟官網、華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。70 科技 科技 AI+溝通工具:實現自動溝通管理,賦能不同場景的內容生成溝通工具:實現自
308、動溝通管理,賦能不同場景的內容生成 融合融合 GPT 能力的新版能力的新版 Outlook 可幫助用戶對郵件進行管理、匯總、分類、內容起草??蓭椭脩魧︵]件進行管理、匯總、分類、內容起草。根據發布會展示,融合 GPT 能力的 Outlook 已具備郵件要點總結、郵件撰寫、風格轉換等功能:1)要點總結:)要點總結:根據用戶需求自動總結(未讀/長/多線程)郵件的核心要點,幫助用戶處理紛繁復雜的郵件信息,并支持移動端;2)郵件撰寫:)郵件撰寫:根據用戶簡短的自然語言提示/其他郵件提取,自動生成格式化郵件初稿,協助郵件撰寫;3)風格轉換:)風格轉換:根據用戶需求,快速切換郵件的語氣、風格,滿足不同的工
309、作場景需求。AI+協作工具:自動總結協作工具:自動總結+跟進跟進+回顧,擴大團隊協作智能輔助的外延回顧,擴大團隊協作智能輔助的外延 融合融合 GPT 能力的新版能力的新版 Teams 可幫助用戶實時總結會議的相關信息、推進任務的執行進度??蓭椭脩魧崟r總結會議的相關信息、推進任務的執行進度。根據發布會展示,融合 GPT 能力的 Teams 已具備會議要點總結、流程跟進、紀要生成、智能回顧等功能:1)要點總結:)要點總結:根據用戶需求自動總結會議要點,各參會人員觀點、共識、分歧等內容;2)流程跟進:)流程跟進:根據用戶需求提供“未解決問題提示”、“會議議程創建”等工作內容;3)紀要生成:)紀要生
310、成:自動生成會議紀要、要點和任務模板;4)智能回顧:)智能回顧:根據用戶 follow 的會議自動生成回顧郵件,并根據用戶提問解答會議相關內容。圖表圖表85:Teams 中的中的 Copilot 能夠實時跟進會議進度并提供相關信息能夠實時跟進會議進度并提供相關信息 資料來源:微軟官網、華泰研究 融合融合 GPT 能力的能力的 Business Chat,是企業內部的智能搜索與協同辦公平臺。,是企業內部的智能搜索與協同辦公平臺。根據發布會展示,最新推出的 Business Chat 實現了企業內部的搜索與知識管理,可以看作是工作場景下的 ChatGPT:1)跨應用總結:)跨應用總結:根據用戶需求
311、自動構建企業內部資料的知識圖譜(文檔、會議、郵件等)并提供要點總結;2)業務流程安排與分析:)業務流程安排與分析:根據用戶需求自動化創建業務流程,為用戶提供高可執行性的工作安排;3)業務問答:)業務問答:根據用戶提問與需求,自動生成符合企業智識的解決方案與措施建議,實現特定問題的智能化解答。AI+汽車:汽車:AI 大模型加速無人駕駛發展大模型加速無人駕駛發展“無人駕駛”看上去很美,但一直很難落地?!盁o人駕駛”是最早被提出的人工智能應用場景之一,谷歌、蘋果、特斯拉、百度等海內外科技巨頭從 2016 開始就積極布局,但直到現在仍很難實現大規模商用落地。我們認為,1)多維度數據的獲取和標注成本高,2
312、)對小概率事件的決策準確度和人類還存在較大差距,3)事故時法律權責歸屬不明確,是制約其發展的部分原因。我們認為,以我們認為,以 ChatGPT 和和 SAM 為代表的為代表的 AI 大模型的引入(自大模型的引入(自動標注、算法迭代),從行業整體層面可以加速智能駕駛的量產落地。動標注、算法迭代),從行業整體層面可以加速智能駕駛的量產落地。本節,我們參考特斯拉 FSD,將自動駕駛模型算法按流程分為感知(Perception,識別道路和物體)、預測(Prediction,預測周圍車輛和行人的行為)、執行(Planning,控制車輛速度方向等)三個階段進行分析。免責聲明和披露以及分析師聲明是報告的一部
313、分,請務必一起閱讀。71 科技 科技 圖表圖表86:AI+汽車:感知決策執行三階段汽車:感知決策執行三階段 資料來源:特斯拉官網,華泰研究 感知層面:物體識別、占用空間識別感知層面:物體識別、占用空間識別 感知是模型的起點。感知是模型的起點。我們暫且將感知分為兩大類:1)物體識別:)物體識別:對物體的種類進行識別(區分車輛、行人、道路等);2)占用空間識別:)占用空間識別:無需判斷物體種類,僅對是否占用前方空間進行判斷,典型代表是特斯拉的占用網絡模型(Occupancy Network)。簡言之,我簡言之,我們認為在感知層面,大模型的引入可以:們認為在感知層面,大模型的引入可以:1)通過自動標
314、注大幅降低模型識圖成本;)通過自動標注大幅降低模型識圖成本;2)通)通過占用網絡模型等提高模型“舉一反三”的能力。過占用網絡模型等提高模型“舉一反三”的能力。#1 物體識別:自動標注大幅降低系統成本物體識別:自動標注大幅降低系統成本 數據體量與復雜度提升,標注需求增加。數據體量與復雜度提升,標注需求增加。隨著智能駕駛的成熟,激光雷達 3D 點云信息、攝像頭采集的 2D 圖像信息的增加,道路場景的豐富,自動駕駛的數據標注類型與數量在不斷增加。人工標注成本高、效率低,自動標注是人工標注成本高、效率低,自動標注是 AI 大模型賦能智能駕駛最直接的應用,能大幅降大模型賦能智能駕駛最直接的應用,能大幅降
315、低數據標注的成本。低數據標注的成本。當前智能駕駛領域以人工識別為主。根據愷望數據產品項目副總裁張鵬在 2023 年 2 月的介紹,目前 95%的數據標注是以人工標注為主,機器標注為輔。而據2023 年 4 月毫末智行 DriveGPT 發布會顯示,目前要得到諸如車道線、交通參與者、紅綠燈等信息,行業人工標注的成本約每張圖為 5 元,毫末 DriveGPT 的成本為 0.5 元。我們認為科技公司大模型訓練成熟后,單張圖自動標注的邊際成本趨近于 0,平均成本有望進一步下降。以特斯拉為例,特斯拉 FSD 通過自動標注優化系統效率,通過“多重軌跡重建”技術自動標注車輛行駛軌跡。目前在集群中運行 12
316、小時即可完成 10,000 次行駛軌跡標注,取代500 萬小時人工標注。通過機器的自我訓練,減少了人力標注成本高、效率低的問題。自動標注技術成熟,人工標注團隊規??s小。2021 年人工標注團隊為 1000 多人,2022 年該團隊裁員 200 余人。占用空間識別:“不認識”物體,亦不影響行車決策占用空間識別:“不認識”物體,亦不影響行車決策 國內新勢力與智駕解決方案供應商多使用基于二維點格(pixel)的鳥瞰圖(BEV,Bird Eye View)模型,使用矩形框(bonding box)來框定物體,進行物體識別。特斯拉創新特斯拉創新性的提出了占用網絡(性的提出了占用網絡(Occupancy
317、Network)模型,無需訓練模型“認識”物體,只需)模型,無需訓練模型“認識”物體,只需判斷物體是否占用前方空間,即可進行行車決策。判斷物體是否占用前方空間,即可進行行車決策。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。72 科技 科技 占用網絡(Occupancy Network)模型,將三維空間點格化,每個 3D 點格即為一個 voxel,在 8 顆攝像頭采集到的平面信息基礎上添加時間、空間信息,即可輸出:1)該 3D 點格被占用的概率(例如:區分靜止的車輛/運動的車輛);2)語義信息(Semantics output;例如:區分靜止的車輛/路牙);3)表面信息(Surf
318、ace output;例如:坡度、泥坑、積水)。占用網絡相較于之前在障礙物識別和行駛路徑預判方面有了明顯提升,具體來看:占用網絡相較于之前在障礙物識別和行駛路徑預判方面有了明顯提升,具體來看:1)通過占用網絡,只需分析物體的空間內柵格占用情況,不需對物體本身進行檢測識別,)通過占用網絡,只需分析物體的空間內柵格占用情況,不需對物體本身進行檢測識別,規避傳統視覺算法中對物體識別失敗帶來的車禍風險。規避傳統視覺算法中對物體識別失敗帶來的車禍風險。尤其在面對靜態障礙物、與周圍環境類似的障礙物、訓練模型中未涵蓋到的障礙物時,可以更大程度的規避風險。圖表圖表87:占用網絡對雙節公車動態(藍色)靜態(紅色
319、)精確識別占用網絡對雙節公車動態(藍色)靜態(紅色)精確識別 圖表圖表88:占用網絡對“不認識”的靜態障礙物的識別占用網絡對“不認識”的靜態障礙物的識別 資料來源:特斯拉官網,華泰研究 資料來源:特斯拉官網,華泰研究 2)占用網絡解決傳統視覺算法難題及還原道路坡度和曲率,輔助行車更優決策)占用網絡解決傳統視覺算法難題及還原道路坡度和曲率,輔助行車更優決策。通過計算幾何空間的體積占用率,可以在占用網絡中精確地還原物體本身形狀。占用網絡塑造的3D 世界還可以還原道路的坡度和曲率,讓車輛根據實際道路情況提前預測加速和減速判斷,進一步提高行車安全性和舒適度。圖表圖表89:通過占用網絡可以檢測多廂卡車甩
320、尾問題通過占用網絡可以檢測多廂卡車甩尾問題 圖表圖表90:占用網絡可以還原道路坡度和曲率占用網絡可以還原道路坡度和曲率 資料來源:特斯拉官網,華泰研究 資料來源:特斯拉官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。73 科技 科技 預測層面:道路拓撲關系預測、障礙物預測預測層面:道路拓撲關系預測、障礙物預測 預測分兩種,一種是道路信息的預測(預測分兩種,一種是道路信息的預測(lane prediction),另一種是障礙物的預測。),另一種是障礙物的預測。道路信息:基于大模型勾勒拓撲關系,擺脫對高精度地圖的依賴道路信息:基于大模型勾勒拓撲關系,擺脫對高精度地圖的依
321、賴 道路信息的預測包含:1)語義信息,2)連接信息。最初 autopilot 使用的傳統 link prediction,只能預測比較簡單的道路,比如高速公路,基于此已經可以實現 LCC 等 L2 的功能。要實現更加復雜的城市道路的拓撲關系預測,需要基于:1)高精度地圖;或者 2)導航地圖+神經網絡預測。特斯拉基于基礎的硬件配置(攝像頭+導航地圖)+自創的language of lanes 模型,來通用化地勾勒整個世界的道路信息。車道線網絡模型輔助進行車輛行駛路徑的預判。車道線網絡模型輔助進行車輛行駛路徑的預判。車道線網絡模型通過車道語言(Luange of Lanes)可以在車載攝像頭及地圖
322、數據所形成的圖像上,將道路數據標注成一系列節點并賦予不同語義(起始點、延續點、交叉點、終點等),并通過組合不同語義的“單詞”形成“句子”,自動勾繪出一條條車道線。這套“車道語言”,可以在小于 10 毫秒的延遲內,思考超過 7500 萬個可能影響車輛決策的因素,運行這套語言的功耗只需要 8W,較大的提升了特斯拉 FSD 對車輛行駛路徑的預判能力。圖表圖表91:特斯拉車道線網絡模型示意特斯拉車道線網絡模型示意 圖表圖表92:特斯拉對可能的行進軌跡進行預判并繪制成車道線特斯拉對可能的行進軌跡進行預判并繪制成車道線 資料來源:特斯拉官網,華泰研究 資料來源:特斯拉官網,華泰研究 物體信息:基于大模型預
323、測動靜信息,為行駛決策提供支持物體信息:基于大模型預測動靜信息,為行駛決策提供支持 物體的預測包含動、靜概率信息,再結合道路拓撲信息,為最終的形式決策提供支持。特斯拉的 Occupancy Network 中紅色代表長期靜止的車輛,黃色代表臨時停車,藍色代表運動,可對物體的動靜狀態及其概率進行預測。在一些特殊情景下,例如左轉攝像頭被左側大貨車遮擋,無法判斷左向是否有來車,模型會自動生成虛擬車輛,假設左側有被遮擋的來車,基于此進行決策,更貼近人類駕駛員的思維模式?;谡加镁W絡可以預測道路上其它物體的行進軌跡?;谡加镁W絡可以預測道路上其它物體的行進軌跡。通過對柵格進行光流估計來檢測物體運動并預測
324、其短期行進運動軌跡,并標注上豐富的語義(紅色靜止,藍色加速,黃色減速等),從而在特斯拉車輛行駛過程中規劃最優行駛路徑進行避讓,保證駕駛安全性。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。74 科技 科技 圖表圖表93:特斯拉左轉攝像頭被遮擋,模型假設左側有來車特斯拉左轉攝像頭被遮擋,模型假設左側有來車 圖表圖表94:特斯拉對闖紅燈車輛、道路阻礙者的預判特斯拉對闖紅燈車輛、道路阻礙者的預判 資料來源:特斯拉官網,華泰研究 資料來源:特斯拉官網,華泰研究 決策層面:交互搜索模型,影子模式,虛擬仿真決策層面:交互搜索模型,影子模式,虛擬仿真 決策的難點在于多方的交互與對路權的博弈,計
325、算的效率是至關重要的。決策的難點在于多方的交互與對路權的博弈,計算的效率是至關重要的。目前業內普遍在50-100 毫秒之間完成一輪計算。受車端算力與計算效率的限制,目前決策層面的模型可分為兩類:1)Rule base 的模型(類似 if 程序):提前設定了某些情境下的反應機制,例如左轉選擇超車還是避讓前車,更大程度的保障了安全性,但一定程度上也較為僵化,不符合“老司機”的駕駛習慣。2)特斯拉的交互搜索的模型:基于神經網絡模型,自主搜索目標和備選方案(maneuver trajectory),query base 的條件下可縮短單次計算時間至 100 微秒。此外,影子模式、虛擬仿真的引入也有望提
326、高駕駛的智能化程度和流暢度。此外,影子模式、虛擬仿真的引入也有望提高駕駛的智能化程度和流暢度。1)影子模式是指大模型在車輛后臺運行,模擬決策而不實際控車,不會對駕駛者及車輛產生任何干擾。但是在有異常場景或模型與人類駕駛員的決策不同時,觸發數據采集及回傳,對機器做出的決策進行“糾正”。2)虛擬仿真是指通過 AI 自動生成道路場景、車輛、行人等信息,對模型進行訓練。特斯拉的模擬仿真可以通過建立一個虛擬世界,以提供現實中難以獲得/數據量不足的情景,目前特斯拉可以在 5min 內自動生成一個復雜路口 3D 虛擬場景。進一步,還可以通過道路中的場景,創建更多變種場景,幫助決策模型進行不斷優化迭代。免責聲
327、明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。75 科技 科技 AI+工業:工業:ChatGPT 引領引領 AI 賦能工業,工業智能化水平或將加速提升賦能工業,工業智能化水平或將加速提升 ChatGPT 引領引領 AI 大模型突破,隨著大模型突破,隨著 AI 技術和工業領域深度融合,工業技術和工業領域深度融合,工業 AI 應用或將迎來應用或將迎來高速發展窗口。高速發展窗口。隨著 2023 年 3 月 OpenAI 正式發布大型自然語言處理模型 ChatGPT-4,同月微軟將其旗下 Azure 云服務 Azure、Microsoft365 辦公軟件、Bing 搜索引擎、Power Pla
328、tform 低代碼開發平臺等產品與 ChatGPT 深度融合,生成式 AI 在文本、代碼、視頻等一系列應用領域的前景逐漸明晰。AI 大模型大模型+工業所形成的核心產品、方案與服務,是工業所形成的核心產品、方案與服務,是 AI 賦能工業的主要載體。賦能工業的主要載體。其中主要包括四個方面,按層級關系可分為基礎軟硬件、智能工業裝備、自動化與邊緣系統、平臺/工業軟件與方案。其中,基礎軟硬件是指各類芯片/計算模塊、AI 框架、工業相機等相對通用的軟硬件產品;智能工業裝備是指融合智能算法的機器人、AGV(自動導向機器人)、機床等工業生產制造設備;自動化與邊緣系統是指融合了智能算法的工業控制系統;平臺/工
329、業軟件與方案則是指各類具有 AI 能力的工業互聯網平臺及其衍生解決方案和應用服務。以上應用通過識別類應用、數據建模優化類應用及知識推理決策類應用三種模式被廣泛用以上應用通過識別類應用、數據建模優化類應用及知識推理決策類應用三種模式被廣泛用于工業研發、生產、管理及服務等全環節。于工業研發、生產、管理及服務等全環節。圖表圖表95:“AI+工業”應用場景工業”應用場景 資料來源:各公司官網,華泰研究 AI 大模型大模型+工業研發設計:增進芯片設計、工業研發設計:增進芯片設計、CAD 設計及仿真優化效率設計及仿真優化效率 AI 大模型大模型+工業軟研發設計軟件將加快推動工業數字化進程,極大解放生產力。
330、工業軟研發設計軟件將加快推動工業數字化進程,極大解放生產力。工業數字化進程大致始于 20 世紀 50-70 年代,以圖形化、自動化為代表性技術,將計算機設計、調度能力首次帶融入工業生產領域,替代人工操作,解放生產力的同時提升生產效率,這一時期的典型代表有 50-60 年代出現的 CAD 軟件,60-70 年代出現的 CAE、EDA、PLC軟件,極大地提升了生產效率。在當前時間點,AI 與工業研發設計軟件積極相融合,借助云計算,進行超大數據量的推理訓練,進一步優化軟件工作效率,簡化研發流程和復雜度,幫助企業提升效率的同時還能優化成本結構。AI 大模型大模型+EDA 將成為未來芯片設計軟件的主流趨
331、勢,大幅加快芯片研發設計的進度。將成為未來芯片設計軟件的主流趨勢,大幅加快芯片研發設計的進度。2023 年 4 月 7 日,美國 Cadence 公司推出 Allegro X AI technology新一代系統設計技術。本技術依托于 Allegro X Design Platform 平臺,利用云端的擴展性實現物理設計自動化,在提供 PCB 生成式設計的同時,確保設計在電氣方面準確無誤,并可用于制造。本項新技術可自動執行器件擺放、金屬鍍覆和關鍵網絡布線,并集成了快速信號完整性和電源完整性分析功能。使用本技術的生成式 AI 功能,客戶可以簡化系統設計流程,將 PCB 設計周轉時間縮短至原來的十
332、分之一。國內方面,概倫電子在 3 月的業績會上表示正在關注AI+EDA 軟件的發展機遇,并將未來在該領域加大投入。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。76 科技 科技 AI 大模型大模型+CAE 有效提升仿真效率,優化代碼生成能力。有效提升仿真效率,優化代碼生成能力。CAE(computer aided engineering),指用計算機輔助求解分析復雜工程和產品的結構力學性能,以及優化結構性能等,把工程(生產)的各個環節有機地組織起來,其關鍵是將有關的信息集成,使其產生并存在于工程(產品)的整個生命周期。CAE 軟件可作靜態結構分析,動態分析;研究線性、非線性問題;
333、分析結構(固體)、流體、電磁等。因為 CAE 已經在工業領域得到了多年的大量應用,積累了大量的數據,可以作為生成式 AI 的訓練數據來源。未來基于生成式 AI 的新型 CAE 建模將基于歷史設計數據,通過大數據挖掘不同影響因素之間的關系,而不再過分追求從物理理論生成模型,從而能大幅提升建模的效率。AI 大模型賦能創成式設計,生成式大模型賦能創成式設計,生成式 AI 未來或可為未來或可為 CAD 軟件提供大量可供選擇的模型。軟件提供大量可供選擇的模型。創成式設計是一種利用 AI 技術根據一系列系統設計來自主創建優化設計的 3D CAD 功能。其特點在于能在設計師給定的約束條件和目標下,借助 AI 的能力來快速生成滿足要求的目標模型,供設計師從中選擇合適的模型進行進一步的設計優化,從而提升設計效率,降低設計成本。從目前來看,生成式 AI 在嚴謹理性的數學和邏輯領域的能力相對文字領域仍然比較有限