1、 證券研究報告證券研究報告 請務必閱讀正文之后第請務必閱讀正文之后第 22 頁頁起起的免責條款和聲明的免責條款和聲明 GPT 會是會是 AI 算法模型算法模型的終極答案嗎?的終極答案嗎?前瞻研究全球人工智能 AI 行業系列報告 52023.4.7 中信證券研究部中信證券研究部 核心觀點核心觀點 陳俊云陳俊云 前瞻研究首席 分析師 S1010517080001 許英博許英博 科技產業首席 分析師 S1010510120041 賈凱方賈凱方 前瞻研究分析師 S1010522080001 劉銳劉銳 前瞻研究分析師 S1010522110001 ChatGPT 在全球在全球 AI 產業、技術領域帶來的
2、良好示范效應,有望推動產業、技術領域帶來的良好示范效應,有望推動 AI 算法模算法模型結束當前的技術路線分叉,并不斷向以型結束當前的技術路線分叉,并不斷向以 GPT 為主導的大語言模型(為主導的大語言模型(LLM)靠)靠攏,加速全球攏,加速全球 AI 產業產業“工業化工業化”時代到來。中期維度,大語言模型領域時代到來。中期維度,大語言模型領域“暴力美暴力美學學”預計仍將是我們不斷逼近通用人工智能的最可能路線,基于此基準假設,模預計仍將是我們不斷逼近通用人工智能的最可能路線,基于此基準假設,模型算法架構將遵從漸進的學術研究步伐,高質量數據集、工程實踐能力、核心型算法架構將遵從漸進的學術研究步伐,
3、高質量數據集、工程實踐能力、核心人才、資本將成為大模型研發領域的核心競爭壁壘。而面對當前人才、資本將成為大模型研發領域的核心競爭壁壘。而面對當前 GPT 等大語言等大語言模型在問答可靠性、推理能力等層面缺陷,復雜問題分解、鏈接外部知識模型在問答可靠性、推理能力等層面缺陷,復雜問題分解、鏈接外部知識&工具工具等增強語言模型(等增強語言模型(ALM)方式)方式料料將是可行的方式,比如將是可行的方式,比如 ChatGPT 插件等。作為插件等。作為中期最具確定性的產業方向之一,我們持續看好全球中期最具確定性的產業方向之一,我們持續看好全球 AI 領域的投資機會,并建領域的投資機會,并建議持續聚焦芯片、
4、算力設施、模型架構議持續聚焦芯片、算力設施、模型架構&工程實踐、應用場景等核心環節。在美工程實踐、應用場景等核心環節。在美股市場,我們建議持續關股市場,我們建議持續關注:英偉達、臺積電、微軟、谷歌、注:英偉達、臺積電、微軟、谷歌、AMD、Arista、博通、博通、Marvell、百度、百度、Adobe、Snowflake 等等。報告緣起報告緣起:ChatGPT 在全球市場的成功,以及由此引致的全球主要科技企業在AI 領域的軍備競賽,正在加速全球 AI 產業的發展速度。AI 算法模型作為產業的核心環節,其本身的技術路線,將直接決定 AI 產業鏈最終形態,以及各產業環節的分工協作方式、價值分配結構
5、等,對 AI 算法模型技術路線的系統分析、前瞻性判斷,是構建 AI 產業中期投資邏輯的核心基礎。在本篇專題中,我們主要回答:AI 算法模型是否會朝 GPT 方向進行收斂,算法模型核心競爭壁壘、算力是否會成為 AI 產業潛在約束因素,以及如何引入新的知識&工具,以克服當前大語言模型的潛在缺陷等。技術路線技術路線:大語言模型(大語言模型(LLM)有望實現主導,并不斷向)有望實現主導,并不斷向 GPT 方案靠攏方案靠攏。在過去近 10 年里,人工智能模型經歷了從小模型到以 Transformer 為代表的大模型的轉變,我們根據行業發展的歷史總結為以下四個階段。1)2017 年前,以深度學習為核心的小
6、模型占據主流:這類模型以 LSTM 及 CNN 模型作為典型的特征抽取器,根據特定領域標注數據訓練,在一些任務上可以達到接近人類的水準。但是硬件算力不夠導致針對其他領域重新訓練成本過高,讓其通用型任務的完成情況很差。2)2017 年到 2020 年,以谷歌 Bert 為代表的雙向預訓練+Fine Tuning(微調)的 Transformer 模型橫空出世成為了人工智能的主流方向。谷歌研究團隊發布的Attention is all you need論文開創了 Transformer 模型,重新統一了自然語言模型(NLP)的研究范式。這類模型以預訓練的方式學習語言學特征,大幅簡化了過去 NLP
7、繁瑣的研究種類。Transformer 作為特征提取器效果好于 CNN、LSTM 模型等,讓 AI 首次能在語言任務的部分場景中追平人類。3)2020 年到 2022 年,產業界與學術界繼續沿著 Transformer 的道路前景,但開始嘗試不同于 Bert 的其他 Transformer 架構,通過預訓練無監督學習的方法不斷增加模型大小成為了這一時段的主流。以 1750 億參數的 GPT-3 為代表,各大互聯網巨頭不斷嘗試增加模型體積以獲得更好的效果。GPT-3 為代表的自回歸+Prompting 的方法開始展現產品化能力的優越性,與Fine-tuning 方法的 Bert 模型成為兩條道路
8、。4)2022 年至今,ChatGPT 的成功證明了 GPT 模型的 Prompting 道路的正確性,同時也強調了數據質量的重要性。ChatGPT 最重要的成功是在產品化上更進一步:ChatGPT 在模型精度上并沒有飛躍性的突破,但從 Few Shot prompt(需要輸入范例示范)轉換到 Instruct(用人類語言描述想做什么)更加貼合用戶的習慣。競爭壁壘:競爭壁壘:數據、工程實踐、人才、資本等數據、工程實踐、人才、資本等?;仡欉^去近十年人工智能模型的發展,我們發現進入人工智能模型研發的門檻越來越高。從 Bert 開始到 GPT-3 再到谷歌的 PALM,網絡中的公開語言數據源已經在被
9、盡可能地利用(論壇、新聞、前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 52023.4.7 請務必閱讀正文之后的免責條款和聲明 2 維基百科等等),而模型的進一步優化對數據質量的要求也越來越高。我們認為優質的私有數據源將在未來 3-5 年里人工智能模型的精度優化上發揮更重要的作用。爬蟲難以爬取的社交媒體數據、保存在后臺的用戶偏好數據、代碼托管數據等仍具有開發空間,這也將成為數據獲取端的優勢,而結合這些私有數據生成的合成數據將進一步放大這些公司數據端的優勢。此外隨著模型體量仍然在成倍數增加,大量的前期資本投入是阻礙新入者的重要因素。在過去五年內,我們看到人工智能模型的
10、獨角獸都在尋找互聯網科技大廠作為其背后的依靠,主要因為:1)能夠得到充足而短時間內不求產出的資金支持,2)依靠互聯網大廠的公有云等相關資源進一步降低成本,3)獲取互聯網大廠長期以來所積累的優質數據源。這也是我們看到為什么在過去五年內人工智能頭部廠商逐漸從開源走向閉源,利用其資源優勢來打造差異化的 AI 模型,而落后者更希望通過開源的模式以求縮小與頭部廠商的距離。研發團隊的工程能力是決定公司在大語言模型競爭力的另一個重要因素。隨著語言模型的體積不斷增加,在研究方法上現今千億量級的模型與之前幾十億量級的小模型發生了本質變化,個體工程師沒有能力通過自有資源積累對大模型的學習經驗。一個合格的大模型研發
11、團隊需要依靠大公司的資源支持才能積累對模型調試、優化、實際部署等各個環節足夠的經驗。優秀的工程人才稀缺以及培養難度讓沒有經驗的新公司進入更為困難,如何招募到一個大模型領域經驗豐富的專家并在其影響力的基礎上招募來自于大公司的有一定工程經驗的團隊將成為新入公司的核心問題。算力成算力成本:單位成本持續保持快速下降趨勢本:單位成本持續保持快速下降趨勢。根據我們之前系列報告的測算,盡管人工智能模型的總研發投入持續在提高,但主要原因來自于模型體積的倍數式增長,而人工智能模型的單位成本保持下降趨勢。在推理端以相同模型為例,在2020 年根據 Stanford 講師 Mourri 的測算,訓練 GPT-3 的
12、成本約為 460 萬美元。而至 2022 年底,根據我們的重新測算訓練同樣的 GPT-3 模型在兩年后成本僅需要 150 萬美元,成本下降了 66%以上。在模型推理端以 ChatGPT 為例,根據我們在 2022 年底的測算,ChatGPT 生成一次回答的成本約在 1-2 美分之間。而從3 月 2 日 OpenAI 對 ChatGPT API 的定價出,0.2 美分每 1000tokens 的定價對應為百億參數級別的模型。結合 ChatGPT 在訓練過程中所使用的 Reward Model(獎勵模型,記錄了人類偏好)應為千億參數級別的模型,這也意味著 OpenAI將其在千億參數模型中所學習到的
13、能力通過類似于蒸餾(distillation)的方式濃縮進了百億參數的模型中,快速降低了成本消耗。根據目前用戶在社交媒體的反饋結果看,這個百億參數模型的能力已經追平甚至超越了先前的大尺寸模型。因此無論是模型推理端或訓練端,我們都觀察到單位成本在持續保持下降的趨勢,而總成本的持續提高來源于模型大小的持續增加以及用戶數量的增加。當未來模型大小與日活用戶數接近閾值后,成本端的優化將會收束模型整體成本的膨脹,也提供給一些中小公司切入垂直領域的機會,最終形成:AI 巨頭提供泛用性模型以及服務主要 ToC 需求,中小公司切入特定垂直行業并根據需求做微調優化模型的格局。未來展望:通過插件等擴展大語言模型(未
14、來展望:通過插件等擴展大語言模型(LLM)能力邊界)能力邊界。目前小公司雖然沒有能力研發底層的大語言模型,但其可以通過微調的形式服務垂直領域的需求。我們認為 OpenAI 三月份在 ChatGPT 中推出的插件接口是為了接入小公司的微調成果的一次嘗試:第三方廠商將可以自有的數據源及部分算法作為 ChatGPT 之上的插件,ChatGPT 可以調用插件中的外部 API 接口來獲得信息。插件提供者使用 OpenAPI 標準編寫 API,然后這個 API 會被編譯成一個 prompt 向 ChatGPT 解釋如何使用 API 來增強其答案。當用戶選擇對應插件后,如果 ChatGPT 認為應該從 AP
15、I 獲取信息,它將發出請求并在嘗試回應之前將信息添加到上下文中。通過插件接口這一模式簡化了小公司對大語言模型微調的難度,并豐富了基于大語言模型之上的環境生態。同時通過復雜問題分解、鏈接外部知識&工具(比如插件)等增強語言模型方式,亦能有效解決現有大語言模型在問答可靠性、信息及時性等方面的固有缺陷。風險因素:風險因素:AI 核心技術發展不及預期風險;科技領域政策監管持續收緊風險;私有數據相關的政策監管風險;全球宏觀經濟復蘇不及預期風險;宏觀經濟波動導AU9UlYjZ9XjYqZrYrY8ObP6MpNoOsQnOiNmMsOfQrRwPbRsQpMwMqQsOvPrMoQ 前瞻研究前瞻研究全球人
16、工智能全球人工智能 AI 行業系列報告行業系列報告 52023.4.7 請務必閱讀正文之后的免責條款和聲明 3 致歐美企業 IT 支出不及預期風險;AI 潛在倫理、道德、用戶隱私風險;企業數據泄露、信息安全風險;行業競爭持續加劇風險等。投資策略:投資策略:ChatGPT 在全球 AI 產業、技術領域帶來的良好示范效應,有望推動AI 算法模型結束當前的技術路線分叉,并不斷向以 GPT 為主導的大語言模型(LLM)靠攏。中期維度,大語言模型+“暴力美學”預計仍將是我們不斷逼近通用人工智能的最可能路線。作為中期最具確定性的產業方向之一,我們持續看好全球 AI 領域的投資機會,并建議持續聚焦芯片、算力
17、設施、模型架構&工程實踐、應用場景等核心環節。在美股市場,我們建議持續關注:英偉達、臺積電、微軟、谷歌、AMD、Arista、博通、Marvell、百度、Adobe、Snowflake 等。重點公司盈利預重點公司盈利預測、估值及投資評級測、估值及投資評級 公司公司 市值(億美市值(億美元)元)估值方式估值方式 估值(自然年)估值(自然年)2021A 2022E 2023E 2024E 英偉達 6640 PE 79.4 59.8 45.1 35.3 AMD 1492 PE 27.1 30.3 21.6 18.0 臺積電 4678 PE 14.1 16.8 13.7 12.3 亞馬遜 10360
18、EV/EBITDA NA 13.9 10.6 8.1 Arista 499 PE 34.5 27.3 24.5 22.6 博通 2622 PE 15.9 14.7 14.0 13.2 Marvell 344 PE 18.9 26.8 17.6 14.2 微軟 21166 P/FCF 32.9 34.1 26.9 22.0 谷歌 13379 PE 22.3 20.3 17.3 14.7 百度 505 PE 16.8 14.7 12.9 12.0 Adobe 1752 P/FCF 24.3 22.0 19.3 18.1 Salesforce 1953 P/FCF 30.9 26.5 19.9 16
19、.4 Service Now 949 P/FCF 43.9 36.9 29.2 23.4 Snowflake 476 P/S 23.0 16.5 12.1 9.0 Confluent 64 P/S 11.0 8.4 6.6 5.1 MongoDB 149 P/S 11.6 9.9 8.2 6.3 Palo Alto 588 P/FCF 34.5 30.0 24.5 20.8 資料來源:彭博,中信證券研究部 注:股價為 2023 年 4 月 5 日收盤價;預測數據來自彭博一致預期 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 4 目錄目錄 報告緣起報告緣起.6 技
20、術路線:大語言模型(技術路線:大語言模型(LLM)有望實現主導,并不斷向)有望實現主導,并不斷向 GPT 方案靠攏方案靠攏.6 競爭壁壘:數據、工程實踐、人才、資本等競爭壁壘:數據、工程實踐、人才、資本等.11 算力成本:單位成算力成本:單位成本持續保持快速下降趨勢本持續保持快速下降趨勢.15 未來展望:通過插件等擴展大語言模型(未來展望:通過插件等擴展大語言模型(LLM)能力邊界)能力邊界.18 風險因素風險因素.20 投資策略投資策略.20 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 5 插圖目錄插圖目錄 圖 1:人工智能模型發展的關鍵階段.6 圖 2:在
21、這一階段模型精度較難以超越人類水平.7 圖 3:Transformer 模型的提取能力實現了質的飛躍.7 圖 4:在語言任務上 Bert 模型第一次在部分場景追平人類.8 圖 5:從 2018 年到 2022 年,模型參數量增加了 5000 倍.8 圖 6:Prompt 簡化了使用端接口,是更好的產品思維.9 圖 7:產品化能力的進步讓 ChatGPT 取得了史無前例的用戶增長速度.9 圖 8:以 Siri 為代表的傳統模式.10 圖 9:ChatGPT 如何回答紅黑樹問題.10 圖 10:Real Toxicity 數據集(InstructGPT 犧牲部分精度).11 圖 11:Truthf
22、ulQA 數據集(InstructGPT 在 QA 取得更好成績).11 圖 12:自 GPT-3 以來發布的部分大語言模型.11 圖 13:目前的大模型已經在窮盡所有能找到的公開網絡數據.12 圖 14:奔馳通過自身的私有數據在英偉達 Omniverse 上進一步生成適用于自動駕駛的合成數據.13 圖 15:世界一流大語言模型初創公司幾乎都背靠強力公有云廠商的支持.13 圖 16:理想情況下足夠好的優化可以降低 90%以上的成本.14 圖 17:Deepmind 對基礎研究員的招聘要求為博士生或博士生相應的從業經驗.15 圖 18:對于相同的數據集的訓練成本,近五年持續保持下降趨勢.15 圖
23、 19:我們從 Scaling Laws 論文中給出的公式出發進行推算.16 圖 20:參考 HGXA100 在 FP16 精度下的峰值算力為 5PFLOPS.16 圖 21:斯坦福大學講師 Mourri 曾在 2020 年推算使用 Tesla V100 顯卡訓練 GPT-3 需要460 萬美元.16 圖 22:通過優化算法結構能夠顯著改善推理任務的內存占用.17 圖 23:未來大語言模型生態格局預測.18 圖 24:OpenAI 目前給出的插件 Demo.18 圖 25:ChatGPT 通過插件調用外部 API 并通過 Slack、teams 等界面反饋給用戶.19 圖 26:Wolfram
24、 通過插件告訴 ChatGPT 如何使用自己的 API 接口,并在用戶需要時如何調用.20 表格目錄表格目錄 表 1:部分互聯網巨頭及其對應的私有數據.12 表 2:參考英偉達 Megatron-LM 175B 的實際算力為理論峰值的 51.4%.16 表 3:ChatGPT 推理任務測算表.17 表 4:重點推薦公司盈利預測.21 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 6 報告緣起報告緣起 ChatGPT 在全球市場的成功,以及由此引致的全球主要科技企業在 AI 領域的軍備競賽,正在加速全球 AI 產業的發展速度。AI 算法模型作為產業的核心環節,其本
25、身的技術路線,將直接決定 AI 產業鏈具體形態,以及各產業環節的分工協作方式和價值分配結構,因此對 AI 算法模型技術路線進行系統的分析、前瞻性的判斷,就成為了一個難以回避的問題。在本篇報告中,我們將著重對如下問題進行展開分析,并在此基礎上,就中期 AI 算法模型技術路線、產業核心競爭要素等進行分析推演:1)可預見時間范圍內,AI 算法模型技術路線會朝什么方向發展,是繼續走向分叉還是快速收斂,GPT 為代表的大語言模型在其中會扮演什么樣的角色?2)AI 算法模型的核心競爭壁壘將來自哪些領域,數據、算力設施、人才、工程實踐?3)算力成本是否會成為當下 AI 產業向前發展的核心瓶頸,單位算力成本下
26、降曲線?4)面對當前 GPT 等大語言模型的各類突出缺陷,有何有效的解決方式,ChatGPT+插件會成為一種主流的方式嗎?技術路線:技術路線:大語言模型大語言模型(LLM)有望實現)有望實現主導,主導,并不并不斷斷向向 GPT 方案靠攏方案靠攏 AI 模型發展回顧:過去模型發展回顧:過去 10 年里,年里,AI 模型經歷了從模型經歷了從小模型到以小模型到以 Transformer 為代表為代表的大模型的轉變的大模型的轉變。從人工智能這個概念在 1950 年被提出開始,已經經歷了從規則學習到機器學習再到神經網絡的關鍵轉變,本輪我們看到的人工智能技術突破都是基于在神經網絡技術上的不斷進步。而細分近
27、十年來模型發展的進步,我們又觀察到從以 CNN、DNN為代表的傳統神經網絡小模型到以 Transformer 為代表的神經網絡大模型轉變的趨勢。圖 1:人工智能模型發展的關鍵階段 資料來源:OpenAI,中信證券研究部繪制 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 7 我們根據全球 AI 行業近 10 年的發展歷史,并將其總結為以下四個階段:1)2017 年前年前:以深度學習為核心的小模型占據主流:這類模型以 LSTM 及 CNN 模型作為典型的特征抽取器,根據特定領域標注數據訓練,在一些任務上可以達到接近人類的水準。但是硬件算力不夠導致針對其他領域重新訓練
28、成本過高,讓其通用型任務的完成情況較差。圖 2:在這一階段模型精度較難以超越人類水平 資料來源:OpenAI 2)2017 年到年到 2020 年年:以谷歌 Bert 為代表的雙向預訓練+Fine Tuning(微調)的Transformer 模型橫空出世成為了人工智能的主流方向。谷歌研究團隊發表的 Attention is all you need論文(作者:Ashish Vaswani,Noam Shazeer,Niki Parmar 等)開創了Transformer 模型,重新統一了自然語言模型(NLP)的研究范式。這類模型以預訓練的方式學習語言學特征,大幅簡化了過去 NLP 繁瑣的研究
29、種類。Transformer 作為特征提取器效果好于 CNN、LSTM 模型等,在信息容納能力、并行計算等方面明顯占優,讓 AI 首次能在語言任務的部分場景中追平人類。圖 3:Transformer 模型的提取能力實現了質的飛躍 資料來源:OpenAI 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 8 圖 4:在語言任務上 Bert 模型第一次在部分場景追平人類 資料來源:Attention is All you needAshish Vaswani,Noam Shazeer,Niki Parmar 等 3)2020 年到年到 2022 年年:產業界與學術界繼續
30、沿著 Transformer 的道路前景,但開始嘗試不同于 Bert 的其他 Transformer 架構,通過預訓練無監督學習的方法不斷增加模型體積成為了這一時段的主流。以 1750 億參數的 GPT-3 為代表,各大互聯網巨頭不斷嘗試增加模型體積以獲得更好的效果。圖 5:從 2018 年到 2022 年,模型參數量增加了 5000 倍 資料來源:FAIR,中信證券研究部 GPT-3 為代表的自回歸為代表的自回歸+Prompting 的方法開始展現產品化能力的優越性,與的方法開始展現產品化能力的優越性,與Fine-tuning 方法的方法的 Bert 模型成為兩條道路模型成為兩條道路。相比于
31、 Bert,GPT-3 的自回歸+Prompting在產品化能力展現出了兩個優點:1)Fine-tuning 對于小公司更難部署,從產品化的角度上更加困難;2)Prompting 的方法更符合我們對以人類的方式使用 AI 的愿望,并實現了人、模型之間的自然交互。谷歌等巨頭在這一階段也意識到了 Prompting 方法的重要性,逐漸開始轉向。國內 AI 研究在這一段時間內出現了明顯落后,仍然沿著 Bert 模型的方向繼續前進,對 GPT-3 的研究很少;同時受制于中文優質語料的缺乏,模型大小也較難提升。前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 9 圖 6:Pr
32、ompt 簡化了使用端接口,是更好的產品思維 資料來源:Google 官網,中信證券研究部 4)2022 年至今年至今:ChatGPT 的成功證明了 GPT 模型的 Prompting 道路的正確性,同時也強調了數據質量的重要性。ChatGPT 最重要的成功是在產品化上更進一步:ChatGPT在模型精度上并沒有飛躍性的突破,但從 Few Shot prompt(需要輸入少量范例示范)轉換到 Instruct(用人類語言描述想做什么)更加貼合用戶的習慣。圖 7:產品化能力的進步讓 ChatGPT 取得了史無前例的用戶增長速度 資料來源:百度官網,微軟官網,中信證券研究部 總結:總結:產品邏輯上,
33、產品邏輯上,Prompting 雖然犧牲了部分精度,但無需用任務區分器區別不同雖然犧牲了部分精度,但無需用任務區分器區別不同的任務,更接近于大眾所理解的的任務,更接近于大眾所理解的“通用通用人工智能人工智能”。此前大眾此前接觸的人工智能如 Siri、小愛、小度音箱等,通過以任務分類的形式運行,準備不同任務的標注數據分別進行訓練,是傳統的 Bert 類模型。簡單來說,將預先設置好的任務類型放于模型背后,使用者通過描述任務類型系統來匹配對應的模塊,缺點是使用者的指令需要清晰且無法執行沒有預先設置的任務類型。而 GPT 類模型面對用戶不同的輸入,模型可以自行判斷給了用戶更好的體驗,這也更接近于大眾理
34、解的“通用人工智能”。除了應用于文字領域,目前 LLM(大語言模型)已經被應用于圖像、音視頻等場景的問題求解中,并不斷取得理想的效果,而在LLM 模型的技術路線上,GPT 在內容生成、理解上的良好表現,以及更為可行的人、模型交互方式(prompt 提示詞),亦使得 LLM 技術路線不斷向 GPT 方向進行收斂。前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 10 圖 8:以 Siri 為代表的傳統模式 資料來源:中信證券研究部繪制 圖 9:ChatGPT 如何回答紅黑樹問題 資料來源:openAI,中信證券研究部 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行
35、業系列報告行業系列報告 5 11 圖 10:Real Toxicity 數據集(InstructGPT 犧牲部分精度)圖 11:TruthfulQA 數據集(InstructGPT 在 QA 取得更好成績)資料來源:OpenAI,中信證券研究部 資料來源:OpenAI,中信證券研究部 競爭壁壘:數據、工程實踐、競爭壁壘:數據、工程實踐、人才、人才、資本等資本等 回顧過去近十年人工智能模型的發展,我們回顧過去近十年人工智能模型的發展,我們總結總結發現發現,新廠商進入大語言模型新廠商進入大語言模型研發的研發的門檻越來越高。門檻越來越高。從 2017 年谷歌提出 Bert 模型至今,我們可以看到大語
36、言模型的迭代主要都是由老牌的互聯網大廠或是巨頭全力支持的初創公司(OpenAI、Deepmind)推動。這個賽道中的參與者數量十分稀少,而原因就來自于極高的準入門檻?;谏衔牡姆治?,中期維度,伴隨 AI 模型技術路線朝著以 GPT 為主的 LLM(大語言模型)方向收斂,我們總結認為,AI 算法模型的核心技術壁壘將主要集中到:數據、工程實踐、資本、核心人才等層面。圖 12:自 GPT-3 以來發布的部分大語言模型 資料來源:stateof.ai 2022Nathan Benaich,Ian Hogarth 數據數據:目前目前公開互聯網數據已經被公開互聯網數據已經被很大很大程度利用。程度利用。從
37、Bert 開始到 GPT-3 再到谷歌的PALM,網絡中的公開語言數據源已經在被盡可能地利用(論壇、新聞、維基百科等等),利用爬蟲等手段可以大量爬取公開的數據源。但模型的進一步優化仍需要更多數據,這要求模型開發商有能力接觸到優質的私有數據來源,從而才能在模型的數據底層取得差異性的優勢。0.170.180.190.20.210.220.230.24GPT有監督微調InstructGPT00.050.10.150.20.250.30.350.40.45GPT有監督微調InstructGPT 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 12 圖 13:目前的大模型已
38、經在窮盡所有能找到的公開網絡數據 資料來源:LifeArchitect,中信證券研究部 我們判斷,優質我們判斷,優質私有數據源私有數據源,以及通過私有數據進一步生成的合成數據以及通過私有數據進一步生成的合成數據,將在未來將在未來 3-5年里人工智能模型的精度優化上發揮更為年里人工智能模型的精度優化上發揮更為重要的作用。重要的作用。爬蟲難以爬取的社交媒體數據、保存在后臺的用戶偏好數據、代碼托管數據等仍具有開發空間,這也將成為數據獲取端的優勢。如 Google 對用戶搜索以及 Youtube 視頻的數據源、微軟在 Github 中收集到的私有數據都將成為決定模型能力的差異化因素。此外,結合這些私有
39、數據生成的合成數據將進一步放大這些公司數據端的優勢。例如英偉達推出的 Omniverse 平臺就與奔馳展開合作:奔馳可以通過將自有行車記錄數據輸入 Omniverse 生成用于自動駕駛的合成數據,這部分數據可以模擬在現實世界中較為少見的特殊情景并對自動駕駛模型做進一步的補充。表 1:部分互聯網巨頭及其對應的私有數據 公司公司 產品產品 對應的私有數據對應的私有數據 微軟 Github、Office、Teams 等 代碼托管、辦公數據及用戶偏好 谷歌 搜索引擎、Youtube 等 視頻數據、用戶搜索偏好等 Meta Facebook、Instgram 等 爬蟲難以爬取的社交媒體數據 亞馬遜 電商
40、 電商中的用戶偏好數據 百度 搜索引擎、貼吧等 用戶偏好以及部分無法被爬蟲的論壇數據 騰訊 社交媒體、辦公軟件等 私有的社交媒體數據 阿里 電商 電商中的用戶偏好數據 資料來源:各公司官網,中信證券研究部 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 13 圖 14:奔馳通過自身的私有數據在英偉達 Omniverse 上進一步生成適用于自動駕駛的合成數據 資料來源:英偉達官網、中信證券研究部 資本投入:隨著模型體積仍在指數級增長資本投入:隨著模型體積仍在指數級增長,大量的前期資本投入是阻礙新入者的重要大量的前期資本投入是阻礙新入者的重要因素。因素。在過去五年內,
41、我們看到人工智能模型的獨角獸都在尋找互聯網科技大廠作為其背后的依靠,極少有僅靠 PE、VC 融資的大語言模型初創公司出現。原因我們可以總結為以原因我們可以總結為以下幾點下幾點:圖 15:世界一流大語言模型初創公司幾乎都背靠強力公有云廠商的支持 資料來源:Reuters,中信證券研究部 1)能夠得到充足而短時間內不求回報的資金支持;2)依靠互聯網大廠的公有云等相關資源進一步降低成本;3)獲取互聯網大廠長期以來所積累的優質數據源。這也是我們為什么看到在過去五年內人工智能頭部廠商逐漸從開源走向閉源,利用其資源優勢來打造差異化的 AI 模型,而落后者更希望通過開源的模式以求縮小與頭部廠商的距離的原因。
42、工程實踐:工程實踐:研發團隊的工程能力是決定公司在大語言模型競爭力的另一個重要因素研發團隊的工程能力是決定公司在大語言模型競爭力的另一個重要因素。工程能力決定了 AI 研發團隊對模型的部署、迭代以及維護的速度,這也變相增加了模型的成本。當前的大語言模型參數量在 2000 億以上,整個預訓練過程長達最少一個月,這其 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 14 中包含了大量的工程實施問題。如何優化工程細節,以及缺乏實踐工程經驗導致的試錯成本是目前新進入者的一個重要困難。圖 16:理想情況下足夠好的優化可以降低 90%以上的成本 資料來源:阿里云官網 核心人才
43、:核心人才:大語言模型與以往小模型研究范式的區別決定了大語言模型與以往小模型研究范式的區別決定了,目前具備足夠工程能力目前具備足夠工程能力的人才十分稀缺,大語言模型研發擁有經驗豐富的領頭人極為關鍵。的人才十分稀缺,大語言模型研發擁有經驗豐富的領頭人極為關鍵。以往的人工智能模型開發主要圍繞 LSTM、CNN 等小模型,這些小模型的調試、使用方法等往往都包含在了學校課程中,個體工程師也可以通過自有資源進行摸索并豐富自己的經驗。但隨著語言模型的體積不斷增加,在研究方法上現今千億量級的模型與之前幾十億量級的小模型發生了本質變化,個體工程師沒有能力通過自有資源積累對大模型的學習經驗。一個合格的大模型研發
44、團隊需要依靠大公司的資源支持才能積累對模型調試、優化、實際部署等各個環節足夠的經驗。根據 OpenAI 在其招聘官網中所公布的細節,其基本要求博士生畢業獲有 3 年以上在大語言模型經驗的研究生。優秀的工程人才稀缺以及培養難度讓沒有經驗的新公司進入更為困難,如何招募到一個大模型領域經驗豐富的專家并在其影響力的基礎上招募來自于大公司的有一定工程經驗的團隊將成為新入公司的核心問題。前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 15 圖 17:Deepmind 對基礎研究員的招聘要求為博士生或博士生相應的從業經驗 資料來源:Deepmind 官網 算力算力成本:單位成本
45、持續保持成本:單位成本持續保持快速快速下降趨勢下降趨勢 根據我們之前系列報告的測算,盡管人工智能模型的總研發投入持續在提高,但主要根據我們之前系列報告的測算,盡管人工智能模型的總研發投入持續在提高,但主要原因來自于模型體積的倍數式增長,而人工智能模型的單位成本保持下降趨勢。原因來自于模型體積的倍數式增長,而人工智能模型的單位成本保持下降趨勢。根據斯坦福大學AI index 2022的報告,2017年訓練93%精確度的Imagenet需要花費1112.6美元,而在 2021 年底僅需 4.6 美元,單位成本僅為四年前的 223 分之 1。圖 18:對于相同的數據集的訓練成本,近五年持續保持下降趨
46、勢 資料來源:斯坦福 AI Index 2022 大語言模型大語言模型訓練端成本:訓練端成本:兩年內下降兩年內下降約約 66%。因為單次模型訓練耗時較長,一般情況下不太會反復預訓練大語言模型,因此我們在測算訓練環節成本時,假定預訓練單次,且訓練過程中沒有出現錯誤時的成本。實際情形中,考慮到訓練過程中出現工程類錯誤的可能性,實際成本會高于我們計算的理想情況成本。假設參數量為 175B、500B Tokens 的情況下,根據 OpenAI 的“Scaling Laws for Neural Language Models”論文(作者:Jared 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業
47、系列報告行業系列報告 5 16 Kaplan,Sam McCandlish,Tom Henighan 等),在使用 256 個 HGX A100 服務器(2048個 A100 GPU 卡)的情況下,Model FLOPs Utilization(MFU)假設為 Megatron-LM 的51.04%,我們推測單次訓練時長約為 30.71 天,換算為 1509702.7 GPU 小時。假設訓練使用成本價約為1美元/GPU小時的情況下,耗費服務器端成本約為 151萬美元。而在2020年根據 Stanford 講師 Mourri 的測算,當時訓練 GPT-3 的成本約為 460 萬美元,我們可以看到
48、訓練相同模型的成本在兩內下降了約 66%。圖 19:我們從 Scaling Laws 論文中給出的公式出發進行推算 圖 20:參考 HGXA100 在 FP16 精度下的峰值算力為 5PFLOPS 資料來源:Scaling Laws for Neural Language Models(Jared Kaplan,Sam McCandlish,Tom Henighan 等)資料來源:英偉達官網 表 2:參考英偉達 Megatron-LM 175B 的實際算力為理論峰值的 51.4%模型大小模型大小 MFU HFU 22B 41.50%43.70%175B 51.40%52.80%530B 56.
49、00%57.00%1T 56.30%57.00%資料來源:英偉達 Megatron 模型 Readme,中信證券研究部 成本下降速度成本下降速度:根據斯坦福大學講師 Mourri 在 2020 年使用 Tesla V100 顯卡作為基準的估算,當時訓練GPT-3的成本約為460萬美元。由此可見成本在兩年內下降了約 66%,不過考慮到訓練時間成本仍然高昂,反復預訓練大語言模型仍不會成為首選。圖 21:斯坦福大學講師 Mourri 曾在 2020 年推算使用 Tesla V100 顯卡訓練 GPT-3 需要 460 萬美元 資料來源:Younes Bensouda MourriLinkedIn 大
50、語言模型大語言模型推理端成本:通過蒸餾推理端成本:通過蒸餾、稀疏化處理、稀疏化處理等方式持續優化,中短期內仍存在數等方式持續優化,中短期內仍存在數倍的優化空間。倍的優化空間。以 ChatGPT 為例,根據我們在 2022 年底的測算,ChatGPT 生成一次回答的成本約在 1-2 美分之間。而從 3 月 2 日 OpenAI 對 ChatGPT API 的定價出,0.2 美分 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 17 每 1000tokens 的定價對應為百億參數級別的模型,結合 ChatGPT 在訓練過程中所使用得Reward Model(獎勵模型,
51、記錄了人類偏好)應為千億參數級別的模型,這意味著 OpenAI將其在千億參數模型中所學習到的能力通過類似于蒸餾(distillation)的方式濃縮進了百億參數的模型中,通過縮減參數量的形式快速降低了成本消耗。根據目前用戶在社交媒體的反饋結果看,這個百億參數模型的能力以及追平甚至超越了先前的大尺寸模型。表 3:ChatGPT 推理任務測算表 假設:模型假設:模型 Layers 96 假設:模型假設:模型 Hidden Size 12288 假設:假設:Batch Size 1 8XA100 80GB 算力 PetaFLOPS 5 FLOPs Utilization 30%生成 1 個 toke
52、n 需要內存(Bytes)2.61E+11 8XA100 80GB 帶寬 TB/s 4.8 帶寬損耗 15%帶寬限制生成一個 Token 的時間(s)0.064 加載參數權重需要的時間(s)0.015 加載權重時 Input 長度 367 算力計算一個 Token 的時間(s)1.7*10-4 算力密度臨界值 320 每次回答需要生成 Token 200 單次請求生成時間(s)12.22 8xA100 服務器成本(美元/小時)8 單次生成成本(美分)2.7 資料來源:中信證券研究部測算 圖 22:通過優化算法結構能夠顯著改善推理任務的內存占用 資料來源:Self-attention Does
53、Not Need O(n2)Memory(Markus N.Rabe and Charles Staats)總結:總結:因此無論是模型推理端或因此無論是模型推理端或訓練端,我們都觀察到單位成本在持續保持訓練端,我們都觀察到單位成本在持續保持快速下降快速下降趨勢,而總成本的趨勢,而總成本的提高提高,則主要來源于模型體積的增長、訓練數據集增加、推理端,則主要來源于模型體積的增長、訓練數據集增加、推理端用戶用戶調調用次數用次數增加增加等等。當未來模型大小與日活用戶數接近閾值后,我們認為成本端的優化將會收束模型整體成本的膨脹,也提供給一些中小公司切入垂直領域的機會,最終形成:AI 巨頭提供泛用性模型以
54、及服務主要 ToC 需求,中小公司切入特定垂直行業并根據需求做微調優化模型的格局。前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 18 圖 23:未來大語言模型生態格局預測 資料來源:中信證券研究部繪制 未未來展望來展望:通過插件等擴展大語言模型(通過插件等擴展大語言模型(LLM)能力邊界)能力邊界 OpenAI 在在 ChatGPT 中推出插件接口中推出插件接口,進一步擴展,進一步擴展 ChatGPT 能力能力。OpenAI 團隊于2023 年 3 月宣布其為插件(Plugins)接口展開了 Limited Alpha 測試,插件將 ChatGPT 連接到第三方
55、應用程序。這些插件使 ChatGPT 能夠與外部定義的 API 進行交互,增強 ChatGPT 的功能并使其能夠執行各種操作。例如:獲取實時信息:體育比分、股票價格、最新新聞等;獲取知識庫信息:公司文檔、個人筆記等;代表用戶執行操作:預訂航班、訂購食物等。插件的推出,能夠有效解決 ChatGPT 在獲取聯網信息、回答復雜邏輯推理問題等層面的潛在缺陷,并為持續擴展 ChatGPT 的能力邊界,提供了一種極為理想的實現方式,這種思路和圖靈獎得主 Yann LeCun 在最新的論文Augmented Language Models:a Survey提出的增強語言模型(ALM)不謀而合,Yann Le
56、Cun 認為,可以通過復雜問題分解、鏈接外部知識&工具等所謂的增強語言模型方式,來解決現有大語言模型在問答可靠性、信息及時性等方面的固有缺陷。圖 24:OpenAI 目前給出的插件 Demo 資料來源:OpenAI 官網 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 19 插件模式下,插件模式下,第三方廠商無需接觸部署大語言模型,簡化了微調環節的實施難度。第三方廠商無需接觸部署大語言模型,簡化了微調環節的實施難度。過去第三方廠商對模型的微調需要首先將模型本地部署再根據自有數據進行調整,但隨著模型體積的膨脹,本地部署對一些小公司非常困難?,F在第三方廠商將可以自有的
57、數據源及部分算法作為 ChatGPT 之上的插件,ChatGPT 可以調用插件中的外部 API 接口來獲得信息。插件提供者使用 OpenAPI 標準編寫 API,然后這個 API 會被編譯成一個 prompt向 ChatGPT 解釋如何使用 API 來增強其答案。當用戶選擇對應插件后,如果 ChatGPT 認為應該從 API 獲取信息,它將發出請求并在嘗試回應之前將信息添加到上下文中。例如,如果用戶詢問:“我在巴黎住幾晚,應該住在哪里?”大語言模型可能會選擇調用酒店預訂插件 API,接收 API 響應,并生成結合 API 數據和自然語言能力的面向用戶的答案。通過插件接口這一模式簡化了小公司對大
58、語言模型微調的難度,并豐富了基于大語言模型之上的環境生態。圖 25:ChatGPT 通過插件調用外部 API 并通過 Slack、teams 等界面反饋給用戶 資料來源:微軟官方網站 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 20 圖 26:Wolfram 通過插件告訴 ChatGPT 如何使用自己的 API 接口,并在用戶需要時如何調用 資料來源:Wolfram 官網 風險因素風險因素 AI 核心技術發展不及預期風險;科技領域政策監管持續收緊風險;私有數據相關的政策監管風險;全球宏觀經濟復蘇不及預期風險;宏觀經濟波動導致歐美企業 IT 支出不及預期風險;A
59、I 倫理、道德風險;企業數據泄露、信息安全風險;行業競爭持續加劇風險等。投資策略投資策略 ChatGPT 在全球 AI 產業、技術領域帶來的良好示范效應,有望推動 AI 算法模型結束當前的技術路線分叉,并不斷向以 GPT 為主導的大語言模型(LLM)靠攏。中期維度,大語言模型+“暴力美學”預計仍將是我們不斷逼近通用人工智能的最可能路線,在此假設下,模型算法架構將遵從漸進的學術研究步伐,高質量數據集、工程實踐能力、核心人才、資本將成為大模型研發領域的核心競爭壁壘。同時我們判斷,模型單位算力成本(訓練、推理)亦有望持續快速下降,從而推動模型體積、應用場景等產業核心要素相互促進,不斷加快 AI 產業
60、的發展速度。面對當前 GPT 等大語言模型在問答可靠性、推理能力等層面缺陷,復雜問題分解、鏈接外部知識&工具等增強語言模型(ALM)方式料將是可行的方式,比如 ChatGPT 插件等。作為中期最具確定性的產業方向之一,我們持續看好全球 AI 領域的投資機會,并建議持續聚焦芯片、算力設施、模型架構&工程實踐、應用場景等核心環節。在美股市場,我們建議持續關注:英偉達、臺積電、微軟、AMD、Arista、博通、Marvell、百度、Adobe、Snowflake 等。前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 21 表 4:重點推薦公司盈利預測 類別 公司 代碼 市
61、值(億美元)估值方法 估值(自然年)2022A 2023E 2024E 2025E 算力 英偉達 NVDA 6640 PE 79.4 59.8 45.1 35.3 AMD AMD 1492 PE 27.1 30.3 21.6 18.0 臺積電 TSMC 4678 PE 14.1 16.8 13.7 12.3 亞馬遜 AMZN 10360 EV/EBITDA NA 13.9 10.6 8.1 Arista ANET 499 PE 34.5 27.3 24.5 22.6 博通 AVGO 2622 PE 15.9 14.7 14.0 13.2 Marvell MRVL 344 PE 18.9 26.
62、8 17.6 14.2 算法模型 微軟 MSFT 21166 P/FCF 32.9 34.1 26.9 22.0 谷歌 GOOG 13379 PE 22.3 20.3 17.3 14.7 百度 BIDU 505 PE 16.8 14.7 12.9 12.0 應用場景 Adobe ADBE 1752 P/FCF 24.3 22.0 19.3 18.1 Salesforce CRM 1953.1 P/FCF 30.9 26.5 19.9 16.4 Service Now NOW 948.6799 P/FCF 43.9 36.9 29.2 23.4 產業配套 Snowflake SNOW 476 P
63、/S 23.0 16.5 12.1 9.0 Confluent CFLT 64 P/S 11.0 8.4 6.6 5.1 MongoDB MDB 149 P/S 11.6 9.9 8.2 6.3 Palo Alto PANW 588 P/FCF 34.5 30.0 24.5 20.8 資料來源:彭博,中信證券研究部 注:股價為 2023 年 4 月 5 日收盤價;預測數據來自彭博一致預期 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 22 分析師聲明分析師聲明 主要負責撰寫本研究報告全部或部分內容的分析師在此聲明:(i)本研究報告所表述的任何觀點均精準地反映了上
64、述每位分析師個人對標的證券和發行人的看法;(ii)該分析師所得報酬的任何組成部分無論是在過去、現在及將來均不會直接或間接地與研究報告所表述的具體建議或觀點相聯系。一般性聲明一般性聲明 本研究報告由中信證券股份有限公司或其附屬機構制作。中信證券股份有限公司及其全球的附屬機構、分支機構及聯營機構(僅就本研究報告免責條款而言,不含 CLSA group of companies),統稱為“中信證券”。本研究報告對于收件人而言屬高度機密,只有收件人才能使用。本研究報告并非意圖發送、發布給在當地法律或監管規則下不允許向其發送、發布該研究報告的人員。本研究報告僅為參考之用,在任何地區均不應被視為買賣任何證
65、券、金融工具的要約或要約邀請。中信證券并不因收件人收到本報告而視其為中信證券的客戶。本報告所包含的觀點及建議并未考慮個別客戶的特殊狀況、目標或需要,不應被視為對特定客戶關于特定證券或金融工具的建議或策略。對于本報告中提及的任何證券或金融工具,本報告的收件人須保持自身的獨立判斷并自行承擔投資風險。本報告所載資料的來源被認為是可靠的,但中信證券不保證其準確性或完整性。中信證券并不對使用本報告或其所包含的內容產生的任何直接或間接損失或與此有關的其他損失承擔任何責任。本報告提及的任何證券或金融工具均可能含有重大的風險,可能不易變賣以及不適合所有投資者。本報告所提及的證券或金融工具的價格、價值及收益可跌
66、可升。過往的業績并不能代表未來的表現。本報告所載的資料、觀點及預測均反映了中信證券在最初發布該報告日期當日分析師的判斷,可以在不發出通知的情況下做出更改,亦可因使用不同假設和標準、采用不同觀點和分析方法而與中信證券其它業務部門、單位或附屬機構在制作類似的其他材料時所給出的意見不同或者相反。中信證券并不承擔提示本報告的收件人注意該等材料的責任。中信證券通過信息隔離墻控制中信證券內部一個或多個領域的信息向中信證券其他領域、單位、集團及其他附屬機構的流動。負責撰寫本報告的分析師的薪酬由研究部門管理層和中信證券高級管理層全權決定。分析師的薪酬不是基于中信證券投資銀行收入而定,但是,分析師的薪酬可能與投
67、行整體收入有關,其中包括投資銀行、銷售與交易業務。若中信證券以外的金融機構發送本報告,則由該金融機構為此發送行為承擔全部責任。該機構的客戶應聯系該機構以交易本報告中提及的證券或要求獲悉更詳細信息。本報告不構成中信證券向發送本報告金融機構之客戶提供的投資建議,中信證券以及中信證券的各個高級職員、董事和員工亦不為(前述金融機構之客戶)因使用本報告或報告載明的內容產生的直接或間接損失承擔任何責任。評級說明評級說明 投資建議的評級標準投資建議的評級標準 評級評級 說明說明 報告中投資建議所涉及的評級分為股票評級和行業評級(另有說明的除外)。評級標準為報告發布日后 6 到 12 個月內的相對市場表現,也
68、即:以報告發布日后的 6 到 12 個月內的公司股價(或行業指數)相對同期相關證券市場代表性指數的漲跌幅作為基準。其中:A 股市場以滬深 300指數為基準,新三板市場以三板成指(針對協議轉讓標的)或三板做市指數(針對做市轉讓標的)為基準;香港市場以摩根士丹利中國指數為基準;美國市場以納斯達克綜合指數或標普 500 指數為基準;韓國市場以科斯達克指數或韓國綜合股價指數為基準。股票評級股票評級 買入 相對同期相關證券市場代表性指數漲幅 20%以上 增持 相對同期相關證券市場代表性指數漲幅介于 5%20%之間 持有 相對同期相關證券市場代表性指數漲幅介于-10%5%之間 賣出 相對同期相關證券市場代
69、表性指數跌幅 10%以上 行業評級行業評級 強于大市 相對同期相關證券市場代表性指數漲幅 10%以上 中性 相對同期相關證券市場代表性指數漲幅介于-10%10%之間 弱于大市 相對同期相關證券市場代表性指數跌幅 10%以上 前瞻研究前瞻研究全球人工智能全球人工智能 AI 行業系列報告行業系列報告 5 23 特別聲明特別聲明 在法律許可的情況下,中信證券可能(1)與本研究報告所提到的公司建立或保持顧問、投資銀行或證券服務關系,(2)參與或投資本報告所提到的公司的金融交易,及/或持有其證券或其衍生品或進行證券或其衍生品交易,因此,投資者應考慮到中信證券可能存在與本研究報告有潛在利益沖突的風險。本研
70、究報告涉及具體公司的披露信息,請訪問 https:/ 本研究報告在中華人民共和國(香港、澳門、臺灣除外)由中信證券股份有限公司(受中國證券監督管理委員會監管,經營證券業務許可證編號:Z20374000)分發。本研究報告由下列機構代表中信證券在相應地區分發:在中國香港由 CLSA Limited(于中國香港注冊成立的有限公司)分發;在中國臺灣由 CL Securities Taiwan Co.,Ltd.分發;在澳大利亞由 CLSA Australia Pty Ltd.(商業編號:53 139 992 331/金融服務牌照編號:350159)分發;在美國由 CLSA(CLSA Americas,L
71、LC 除外)分發;在新加坡由 CLSA Singapore Pte Ltd.(公司注冊編號:198703750W)分發;在歐洲經濟區由 CLSA Europe BV 分發;在英國由 CLSA(UK)分發;在印度由 CLSA India Private Limited 分發(地址:8/F,Dalamal House,Nariman Point,Mumbai 400021;電話:+91-22-66505050;傳真:+91-22-22840271;公司識別號:U67120MH1994PLC083118);在印度尼西亞由 PT CLSA Sekuritas Indonesia 分發;在日本由 CLS
72、A Securities Japan Co.,Ltd.分發;在韓國由 CLSA Securities Korea Ltd.分發;在馬來西亞由 CLSA Securities Malaysia Sdn Bhd 分發;在菲律賓由 CLSA Philippines Inc.(菲律賓證券交易所及證券投資者保護基金會員)分發;在泰國由 CLSA Securities(Thailand)Limited 分發。針對不同司法管轄區的聲明針對不同司法管轄區的聲明 中國大陸:中國大陸:根據中國證券監督管理委員會核發的經營證券業務許可,中信證券股份有限公司的經營范圍包括證券投資咨詢業務。中國香港:中國香港:本研究報
73、告由 CLSA Limited 分發。本研究報告在香港僅分發給專業投資者(證券及期貨條例(香港法例第 571 章)及其下頒布的任何規則界定的),不得分發給零售投資者。就分析或報告引起的或與分析或報告有關的任何事宜,CLSA 客戶應聯系 CLSA Limited 的羅鼎,電話:+852 2600 7233。美國:美國:本研究報告由中信證券制作。本研究報告在美國由 CLSA(CLSA Americas,LLC 除外)僅向符合美國1934 年證券交易法下 15a-6 規則界定且 CLSA Americas,LLC 提供服務的“主要美國機構投資者”分發。對身在美國的任何人士發送本研究報告將不被視為對本
74、報告中所評論的證券進行交易的建議或對本報告中所述任何觀點的背書。任何從中信證券與 CLSA 獲得本研究報告的接收者如果希望在美國交易本報告中提及的任何證券應當聯系CLSA Americas,LLC(在美國證券交易委員會注冊的經紀交易商),以及 CLSA 的附屬公司。新加坡:新加坡:本研究報告在新加坡由 CLSA Singapore Pte Ltd.,僅向(新加坡財務顧問規例界定的)“機構投資者、認可投資者及專業投資者”分發。就分析或報告引起的或與分析或報告有關的任何事宜,新加坡的報告收件人應聯系 CLSA Singapore Pte Ltd,地址:80 Raffles Place,#18-01
75、,UOB Plaza 1,Singapore 048624,電話:+65 6416 7888。因您作為機構投資者、認可投資者或專業投資者的身份,就 CLSA Singapore Pte Ltd.可能向您提供的任何財務顧問服務,CLSA Singapore Pte Ltd 豁免遵守財務顧問法(第 110 章)、財務顧問規例以及其下的相關通知和指引(CLSA 業務條款的新加坡附件中證券交易服務 C 部分所披露)的某些要求。MCI(P)085/11/2021。加拿大:加拿大:本研究報告由中信證券制作。對身在加拿大的任何人士發送本研究報告將不被視為對本報告中所評論的證券進行交易的建議或對本報告中所載任
76、何觀點的背書。英國:英國:本研究報告歸屬于營銷文件,其不是按照旨在提升研究報告獨立性的法律要件而撰寫,亦不受任何禁止在投資研究報告發布前進行交易的限制。本研究報告在英國由 CLSA(UK)分發,且針對由相應本地監管規定所界定的在投資方面具有專業經驗的人士。涉及到的任何投資活動僅針對此類人士。若您不具備投資的專業經驗,請勿依賴本研究報告。歐洲經濟區:歐洲經濟區:本研究報告由荷蘭金融市場管理局授權并管理的 CLSA Europe BV 分發。澳大利亞:澳大利亞:CLSA Australia Pty Ltd(“CAPL”)(商業編號:53 139 992 331/金融服務牌照編號:350159)受澳
77、大利亞證券與投資委員會監管,且為澳大利亞證券交易所及 CHI-X 的市場參與主體。本研究報告在澳大利亞由 CAPL 僅向“批發客戶”發布及分發。本研究報告未考慮收件人的具體投資目標、財務狀況或特定需求。未經 CAPL 事先書面同意,本研究報告的收件人不得將其分發給任何第三方。本段所稱的“批發客戶”適用于 公司法(2001)第 761G條的規定。CAPL 研究覆蓋范圍包括研究部門管理層不時認為與投資者相關的 ASX All Ordinaries 指數成分股、離岸市場上市證券、未上市發行人及投資產品。CAPL 尋求覆蓋各個行業中與其國內及國際投資者相關的公司。印度:印度:CLSA India Pr
78、ivate Limited,成立于 1994 年 11 月,為全球機構投資者、養老基金和企業提供股票經紀服務(印度證券交易委員會注冊編號:INZ000001735)、研究服務(印度證券交易委員會注冊編號:INH000001113)和商人銀行服務(印度證券交易委員會注冊編號:INM000010619)。CLSA 及其關聯方可能持有標的公司的債務。此外,CLSA 及其關聯方在過去 12 個月內可能已從標的公司收取了非投資銀行服務和/或非證券相關服務的報酬。如需了解 CLSA India“關聯方”的更多詳情,請聯系 Compliance-I。未經中信證券事先書面授權,任何人不得以任何目的復制、發送或銷售本報告。未經中信證券事先書面授權,任何人不得以任何目的復制、發送或銷售本報告。中信證券中信證券 2023 版權所有。保留一切權利。版權所有。保留一切權利。