《計算機行業專題研究:多模態加速燃燒算力-231102(27頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業專題研究:多模態加速燃燒算力-231102(27頁).pdf(27頁珍藏版)》請在三個皮匠報告上搜索。
1、請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 2023.11.02 多模態加速燃燒算力多模態加速燃燒算力 李博倫李博倫(分析師分析師)0755-23976516 證書編號 S0880520020004 本報告導讀:本報告導讀:GPT-4V正式發布后,大模型演進正式進入多模態時期,對于算力的需求也大幅增加,正式發布后,大模型演進正式進入多模態時期,對于算力的需求也大幅增加,短期繼續看好算力板塊。短期繼續看好算力板塊。摘要:摘要:投資建議:投資建議:短期繼續看好算力板塊投資機會。GPT-4V 發布,多模態時代正式開啟,無論在訓練階段還是在推理階段,對于算力的需求都相較于單模態模
2、型有極大的提升,短期繼續看好算力板塊,推薦標的神州數碼、浪潮信息、拓維信息、恒潤股份、淳中科技,受益標的紫光股份、中科曙光、四川長虹、真視通、中國長城、蓮花健康、鴻博股份、潤建股份、中貝通信、烽火通信、恒為科技等。AIAI 模型全面多模態化是必然趨勢。模型全面多模態化是必然趨勢。2023 年 9 月 25 日,OpenAI 正式在 ChatGPT 中推出語音和圖像處理功能,多模態模型的核心是處理和整合這些不同類型的數據源。這種模型可以捕獲跨模態的復雜關系,使機器能夠更全面地理解和分析信息,從而在各種任務中表現得更好。人工智能領域研究一直致力于以技術實現計算機對于人類認知世界方式的高度效仿,單模
3、態交互顯然是一個局限的、并不完整的模型。所以“多模態”研究的大勢所趨已十分明朗。GPT-4V 打開更廣闊的應用場景。打開更廣闊的應用場景。單模態和多模態模型在數據輸入、設計結構和數據相關性方面有明顯的差異。根據微軟的測評,GPT-4V在視覺-語言能力、視覺標記提示、時間和視頻理解、抽象視覺推理、情商測試等方面表現極為出色。我們認為,多模態模型會顯著打開下游應用場景,破除單純文字交互的局限性,將打開工業領域、醫學領域、汽車保險領域、自定義字幕生成器、圖像智能、具身智能等等下游應用場景。算力需求持續爆發。算力需求持續爆發。OpenAI 認為自 2012 年以來,大規模 AI 訓練所需的算力呈指數級
4、增長,每 3.4 個月翻一番。2012-2018 期間已增長超過 300,000 倍。我們認為當前多模態大模型仍在不斷迭代,訓練階段的算力將保持增長。根據我們測算,GPT-4 對于算力的需求在同等訓練時長下相比 GPT-3 增長 445 倍,訓練成本持續高企,算力租賃商業模式具備可行性,短期持續看好算力以及算力租賃三道。風險提示:風險提示:應用端發展進度低于預期;政策風險;企業管理風險 評級:評級:增持增持 上次評級:增持 細分行業評級 計算機 增持 相關報告 計算機 視頻監控安全新標準發布,商用密碼行業需求有望爆發 2023.10.31 計算機 江淮接力賽力斯,華為智選模式高歌猛進 2023
5、.10.29 計算機增發國債有望扭轉政府信息化投資預期 2023.10.25 計算機美國加大制裁,國產 AI 算力重要度躍升 2023.10.18 計算機 華為鴻蒙生態攻堅克難,自主可控正當時 2023.10.16 行業專題研究行業專題研究 股票研究股票研究 證券研究報告證券研究報告 計算機計算機 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 2 of 27 目目 錄錄 1.GPT-V4 發布,ChatGPT 正式進入多模態時代.3 1.1.多模態大模型性能全面領先.3 1.2.多模態模型主要經歷三個時代.5 2.多模態技術逐步成熟,下游應用場景逐
6、步打開.5 2.1.多模態大模型歷經迭代,成功落地.5 2.2.多模態 VS 單模態大模型,差異顯著.7 2.3.微軟官方測評,GPT-4V 任務表現出色.8 2.3.1.視覺-語言能力:掌握多領域的視覺語言識別和輸出.8 2.3.2.視覺標記提示:具備視覺和時間維度的理解能力.13 2.3.3.時間和視頻理解:圖像和視頻方面的解析推理能力強大.15 2.3.4.抽象視覺推理:善于處理和解讀抽象視覺刺激.16 2.3.5.情商測試:提供情感洞察、審美判斷功能.18 2.4.GPT-4V 新增多樣化需求,未來應用前景廣闊.19 3.多模態大模型算力需求仍在持續增長.22 3.1.模型數據量顯著增
7、加,訓練算力需求激增 445 倍.22 3.2.多場景應用持續落地,推理階段算力需求提升.24 4.投資建議.25 5.風險提示.26 0XyWwVaZdUjZtPsO6M8QbRoMqQmOtQjMrQmNjMnNsQbRoPpPxNnPnQxNqRxP 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 3 of 27 1.GPT-V4 發布,發布,ChatGPT 正式進入多模態時代正式進入多模態時代 1.1.多模態大模型性能全面領先多模態大模型性能全面領先 2023 年年 9 月月 25 日,日,OpenAI 正式在正式在 ChatGPT中推出語音
8、和圖像處理功中推出語音和圖像處理功能。能。這一更新基于 GPT-4V 模型。與傳統的僅處理文本的模型不同,GPT-4V具有分析和解讀用戶提供的圖像資料何語音的能力,標志著ChatGPT正式進入多模態時代。圖圖 1:OpenAI 在在 ChatGPT中推出語音和圖像功能中推出語音和圖像功能 數據來源:OpenAI 官網 “模態”指的是數據的不同類型或來源,可以是圖像、音頻、文本等不“模態”指的是數據的不同類型或來源,可以是圖像、音頻、文本等不同的數據形式。同的數據形式。多模態模型的核心是處理和整合這些不同類型的數據源。這種模型可以捕獲跨模態的復雜關系,使機器能夠更全面地理解和分析信息,從而在各種
9、任務中表現得更好。目前,GPT-4V 支持三種輸入模式。僅文本輸入:僅文本輸入:GPT-4V 可以像傳統的單模態語言模型一樣處理文本輸入,執行各種語言和編碼任務。單一圖像單一圖像-文本對:文本對:GPT-4V 既可以接受圖像+文本的組合輸入,也可以只接受圖像輸入。能夠執行圖像識別、物體定位、圖像字幕生成等任務。交錯的圖像交錯的圖像-文本輸入:文本輸入:GPT-4V 可以處理交替出現的圖像和文本,如處理多張收據圖像以計算總稅款,或從菜單上提取信息并計算費用等。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 4 of 27 圖圖 2:GPT-4V 可以處
10、理文字、圖像以及圖像可以處理文字、圖像以及圖像+文本交錯的輸入文本交錯的輸入 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)GPT-4 在可靠性、創造力和處理復雜任務的能力上都超越了在可靠性、創造力和處理復雜任務的能力上都超越了 GPT-3.5。GPT-4 在眾多專業和學術基準上展現出了人類水平的表現。它在模擬的律師資格考試中的成績位于前 10%,而 GPT-3.5 的成績則位于后 10%。GPT-4 不僅在文本處理上更為出色,還具有接受文本和圖像輸入的多模態功能,這使得用戶可以為其指定任何視覺或語言任務。在可
11、控制性方面,與 GPT-3.5 相比,GPT-4 允許開發者和用戶更為明確地規定 AI 的風格和任務。圖圖 3 GPT-4 模擬考試中領先于模擬考試中領先于 GPT3.5 圖圖 4 GPT-4 英語語言性能測試中大幅領先于英語語言性能測試中大幅領先于 GPT3.5 數據來源:OpenAI 官網 數據來源:OpenAI 官網 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 5 of 27 1.2.多模態模型主要經歷三個時代多模態模型主要經歷三個時代 根據技術迭代,多模態模型可以分為三個主要發展階段:計算時代計算時代(1980-1999):開始利用一些淺
12、層的模型對多模態問題進:開始利用一些淺層的模型對多模態問題進行研究。行研究。代表性應用有視覺和語音的聯合識別、多模態情感分析等。盡管這個時期并不真正整合不同的模態,但這些研究為后續的多模態學習奠定了基礎。交互時代交互時代(2000-2009):這一階段的研究側重于從用戶交互的角度:這一階段的研究側重于從用戶交互的角度來探索多模態識別。來探索多模態識別。自動語音識別(ASR)和自然語言處理(NLP)開始合并,為語音助手和其他語音應用提供支持。主要的代表作品包括蘋果的語音助手 Siri 等。深度學習時代深度學習時代(2010-至今至今):深度學習為多模態研究帶來了巨大的:深度學習為多模態研究帶來了
13、巨大的推動力,多模態模型已經達到了前所未有的準確性和復雜性。推動力,多模態模型已經達到了前所未有的準確性和復雜性。特別是卷積神經網絡(CNN)在圖像處理方面,和循環神經網絡(RNN)在序列數據如文本和聲音方面的成功,使得研究者能夠開發出處理多種模態數據的復雜模型。這一階段受益于四個關鍵因素的推動:1)大規模的多模態數據集;2)更強大的計算能力;3)研究者也開始掌握更為先進的視覺特征提取技術;4)出現了強大的語言特征抽取模型,包括 Transformer 架構。圖圖 5:多模態模型主要經歷三個時代:多模態模型主要經歷三個時代 數據來源:卡內基梅隆大學,國泰君安證券研究 全面多模態是必然趨勢。全面
14、多模態是必然趨勢。人工智能領域研究一直致力于以技術實現計算機對于人類認知世界方式的高度效仿。人類具備視覺,聽覺,觸覺,味覺和嗅覺五種模態,單模態交互顯然是一個局限的、并不完整的模型。所以“多模態”研究的大勢所趨已十分明朗。2.多模態技術逐步成熟,下游應用場景逐步打開多模態技術逐步成熟,下游應用場景逐步打開 2.1.多模態大模型歷經迭代,成功落地多模態大模型歷經迭代,成功落地 多模態模型和單模態一樣都是以多模態模型和單模態一樣都是以 Transformer 架構為基礎。架構為基礎。2017 年,Transformer 發布,引入了 Self-Attention 機制來處理序列數據。這種機制允許模
15、型對輸入數據的任意部分進行關注,在 NLP 任務中表現卓越。借助 Transformer 結構,許多知名大模型例如 BERT 和 GPT 被開發出來。這些模型在大型語料庫上進行自監督預訓練,然后微調到具體任務上,行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 6 of 27 展現出了出色的泛化能力。但這些初步的成功仍然局限于文本領域。圖圖 6:Transformer 使用使用 Self-Atttention 機制代替機制代替 RNN 數據來源:Attention Is All You Need ViT改進解決了非文本數據量過大的問題。改進解決了非文本
16、數據量過大的問題。受到在文本領域 Transformer模型成功的啟發,研究者試圖將其應用于計算機視覺任務。但是,直接遷移存在一個關鍵問題,即圖片的數據量巨大。例如,一個 224x224 的圖片相當于 5 萬個像素,這超出了大多數 Transformer 模型的處理能力。在這個背景下,谷歌提出了 ViT(Vision Transformer)模型,其策略是將圖片分割成多個小塊或“patch”,以改成標準的文本形式。假設 224x224 的圖片被分割成 16*16 個 patch,那么其會被分割成 196 個 patch。每個patch 包含 256 個像素,遠小于 5 萬個像素。這些像素會根據
17、顏色通道轉換為向量,加入位置編碼,最后組合成一個序列,輸入到 Transformer 模型中進行處理。通過將圖片分割成小塊,壓縮信息,這使 ViT 跨越了計算機視覺和自然語言處理的界限,推動了多模態的研究。圖圖 7:ViT在在 Transformer 基礎上增加了一個額外可學習的基礎上增加了一個額外可學習的 class 數據來源:An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 7 of 27 OpenAI
18、 推出推出 CLIP 模型,實現多模態學習。模型,實現多模態學習。有了 ViT 作為基礎,研究者進一步考慮如何結合圖像和文本數據,從而推出了多模態模型。OpenAI 的 CLIP 是代表模型之一。CLIP 不僅僅是將 Transformer 應用于圖像,而是在同一個模型中同時處理圖像和文本,讓模型學習圖像和文本之間的對應關系。通過大量的圖像-文本對進行訓練,CLIP 可以理解圖像的內容并將其與文本描述相關聯,實現真正意義上的多模態學習。圖圖 8:CLIP 模型包括文本和圖片編碼器模型包括文本和圖片編碼器 數據來源:Learning Transferable Visual Models From
19、 Natural Language Supervision 各大廠模型相繼發布,多模態技術發展進入快車道。各大廠模型相繼發布,多模態技術發展進入快車道。2023 年,科技巨頭紛紛推出多模態大模型,包括谷歌 PaLM-E、微軟 KOSMOS-1、GPT-4和百度文心一言等,模型路線框架正在被產業驗證,全面多模態時代已然開啟。2.2.多模態多模態 V VS S 單模態大模型,差異顯著單模態大模型,差異顯著 單模態和多模態模型在數據輸入、設計結構和數據相關性方面有明顯的單模態和多模態模型在數據輸入、設計結構和數據相關性方面有明顯的差異。差異。單模態模型主要針對一種數據輸入,其結構通常更為簡單,專為特
20、定數據類型的特征提取而優化。因其專一性,它們在處理相應數據時表現出色,但可能錯過多種數據間的交互關系。相反,多模態模型處理多種數據輸入,結構上更復雜,可能涉及使用多個子網絡,然后將其輸出合并。它們可以捕獲不同數據源之間的交互和相關性,為任務提供更豐富的信息。表表 1:單模態大模型與多模態大模型技術對比單模態大模型與多模態大模型技術對比 單模態模型單模態模型 多模態模型多模態模型 數據輸入數據輸入 單一種類的數據輸入(如圖像或文本)同時處理兩種或更多種類的數據輸入(如圖像、聲音和文本)數據處理數據處理 數據預處理和特征提取通常針對特定類型的數據進行優化。例如,文本數據可能會通過詞嵌入進行編碼,而
21、圖像數據會通過卷積神經網絡進行特征提取。多模態模型必須能夠處理來自不同數據源的輸入,這通常需要更復雜的預處理步驟和特征提取技術,以確保不同模態的數據可以在統一的框架中進行融合和處理。模型架構模型架構 單模態模型的架構通常針對特定類型的數據進行優化。例如,RNNs 可能更適合處理序列數據,而CNNs 則更適合處理圖像數據。多模態模型需要具有能夠處理、解析和融合來自不同數據源的信息的架構。這通常涉及使用多個子模型或組件,并在中間或最終階段進行數據融合。學習策略學習策略 單模態模型通常只關注從單一數據源中提取的模式和特征。多模態模型不僅要學習每個模態內部的模式,還要學習跨模態之間的相互關系和語義關聯
22、。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 8 of 27 優化與微調優化與微調 優化通常集中在提高特定任務的性能上,例如文本分類或圖像識別。優化更為復雜,因為模型需要在多個任務和數據源之間進行權衡,以確保所有模態都得到適當的處理。應用領域應用領域 應用通常限于單一數據類型的任務,例如文本生成或圖像分類??梢詰糜诟鼜V泛和復雜的任務,例如同時處理文本和圖像的情感分析或內容生成。數據來源:國泰君安證券研究 2.3.微軟官方測評,微軟官方測評,GPTGPT-4V4V 任務表現出色任務表現出色 GPT-4V 多模態輸入擴展多模態輸入擴展 AI 能力范
23、圍,多任務測評結果優異。能力范圍,多任務測評結果優異。9 月 29日,微軟團隊發布 The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision),詳細測評了 GPT-4V 在多類任務上的表現,任務設計的重點是圖像和視頻的處理。2.3.1.視覺視覺-語言能力:掌握多領域的視覺語言識別和輸出語言能力:掌握多領域的視覺語言識別和輸出 GPT-4V 具備在描述名人、地標、食物和醫學圖像等不同領域的圖像的具備在描述名人、地標、食物和醫學圖像等不同領域的圖像的能力。能力。1)在名人識別中,GPT-4V 不僅能夠識別出各種名人,還能夠了解他們在給定
24、場景中的活動,如美國總統在 2023 年 G7 峰會上發表的演講。2)在地標識別中,盡管外觀可能因各種因素而變化,GPT-4V 仍然能夠準確地描述各種地標,并提供有關它們歷史和重要性的詳細信息。3)食物識別是一個挑戰,因為食物的外觀可能因為各種因素而有所不同,但 GPT-4V 仍然展現了出色的識別和描述能力。4)在醫學圖像理解方面,GPT-4V 成功地識別了牙齒、頜骨和其他重要的醫學信息,并提供了有關潛在健康問題的見解。5)GPT-4V 還可以應用于空間關系、物體計數、物體定位和密集描述等高級任務中。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 9
25、 of 27 圖圖 9:GPT-4V 可以識別名人并描述他們的背景信息可以識別名人并描述他們的背景信息 圖圖 10:GPT-4V 可以識別圖像中物體之間的空間關系可以識別圖像中物體之間的空間關系 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)GPT-4V 展現出在多個領域的推理能力,并擅長利用視覺提示進行多模展現出在多個領域的推理能力,并擅長利用視覺提示進行多模態常識推理。態常識推理
26、。1)笑話和表情包的理解通常涉及特定事件、流行文化或互聯網趨勢的引用,這需要對相關背景和文化具有深入的了解。GPT-4V 能夠從視覺和文本兩個模態中獲取信息,深入理解嵌入在表情包中的幽默。2)在科學和知識領域,GPT-4V 通過結合文本和圖像提示展現了在地理、物理、生物學等科學領域的推理能力。模型能夠準確地根據視覺背景回答科學問題,并能以教程格式逐步解釋各種概念。3)在多模態常識推理方面,GPT-4V 有效地利用了圖像中的視覺提示,例如邊界框標識的人物,來識別場景中的特定情境和活動。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 10 of 27 圖
27、圖 11:GPT-4V 能夠理解表情包的笑點能夠理解表情包的笑點 圖圖 12:GPT-4V 可以生成科學類問題的答案可以生成科學類問題的答案 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)GPT-4V 在多個領域展現了出色的圖像和文本理解能力,包括場景文本在多個領域展現了出色的圖像和文本理解能力,包括場景文本識別、視覺數學推理、文檔和技術報告深入解析等。識別、視覺數學推理、文檔和技術
28、報告深入解析等。1)GPT-4V 在場景文本識別中表現出色,可以準確識別各種場景下的手寫和打印文本。2)對于視覺數學推理,該模型能夠從圖像中提取關鍵信息,例如直角三角形的邊長,并提供逐步的解決方案。3)模型能夠準確地回答基于圖表的問題,并理解表格中的細節。4)在文檔理解領域,GPT-4V 展示了對各種類型文檔,如平面圖、海報和考卷的深入理解。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 11 of 27 圖圖 13:GPT-4V 可以識別復雜場景中的文本可以識別復雜場景中的文本 圖圖 14:GPT-4V 可識別三種不同類型的文檔可識別三種不同類型的
29、文檔 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)GPT-4V 在處理多種語言任務時同樣表現突出。在處理多種語言任務時同樣表現突出。1)當面對圖像并要求描述時,無論提示是中文、法文、捷克文、英文,GPT-4V 都能精確地生成對應語言的描述。2)GPT-4V 能夠識別并翻譯圖像中的多語言場景文本,如加泰羅尼亞語的維基百科截圖。3)它還能夠洞察文化中的微妙差異,并為各種情境下的圖像生成
30、多語言描述。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 12 of 27 圖圖 15:GPT-4V 能夠用不同語言描述圖像能夠用不同語言描述圖像 圖圖 16:GPT-4V 能夠識別、翻譯不同語言的描述能夠識別、翻譯不同語言的描述 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)GPT-4V 具備將手寫、圖像表格和圖形轉化為代碼的能力,雖然
31、輸出可具備將手寫、圖像表格和圖形轉化為代碼的能力,雖然輸出可能需要微調。能需要微調。1)GPT-4V 可以根據手寫輸入生成 LaTeX 代碼的能力。雖然它處理復雜的方程式時可能遇到困難,但通過將這些方程式分解成簡單的部分,該模型仍然可以有效地生成代碼。2)模型還可以將圖像中的表格轉換為MarkDown/LaTeX代碼。3)它也能為特定的圖形創建Python、TikZ 和 SVG 代碼。盡管生成的代碼并不完美,但其布局大致相似,并且可以根據需要進行調整。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 13 of 27 圖圖 17:GPT-4V 能夠根據
32、手寫輸入生成能夠根據手寫輸入生成 LaTex 代碼代碼 圖圖 18:GPT-4V 能夠編寫代碼來復制輸入的圖像能夠編寫代碼來復制輸入的圖像 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)2.3.2.視覺標記提示:具備視覺和時間維度的理解能力視覺標記提示:具備視覺和時間維度的理解能力 理解指向輸入:理解指向輸入:GPT-4V 能夠準確理解圖像上的標記和坐標,提供多種能夠準確理解圖像上的
33、標記和坐標,提供多種交互方式。交互方式。1)GPT-4V 能夠理解直接繪制在圖像上的視覺標記。2)GPT-4V 也可以處理數字格式的區域坐標。盡管它在處理這些坐標時可能不如直接的視覺標記那么精確,但這種能力為模型提供了更多的交互方式。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 14 of 27 圖圖 19:GPT-4V 能夠理解疊加在圖像上的記號能夠理解疊加在圖像上的記號 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)視覺參考提示:模型允許用戶直接編輯輸入的圖像以
34、進行人機交互。視覺參考提示:模型允許用戶直接編輯輸入的圖像以進行人機交互。例如,模型可以將圖像上的箭頭與給定的對象關聯,或理解圖像上的問題并為基于圖像的對話提供詳細反饋。生成指向輸出:生成指向輸出:GPT-4V 可以生成自己的指向輸出??梢陨勺约旱闹赶蜉敵?。雖然這些生成的輸出可能不總是完美的,但這些指向輸出不僅幫助用戶理解模型的思路,還允許模型進一步推理和解釋其先前的輸出。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 15 of 27 圖圖 20:GPT-4V 能夠理解用戶在圖像上編輯的記號能夠理解用戶在圖像上編輯的記號 數據來源:The Daw
35、n of LMMs:Preliminary Explorations with GPT-4V(ision)2.3.3.時間和視頻理解:圖像和視頻方面的解析推理能力強大時間和視頻理解:圖像和視頻方面的解析推理能力強大 多圖像序列:多圖像序列:GPT-4V 不僅可以精確解析每一個視頻幀,還能夠對整體不僅可以精確解析每一個視頻幀,還能夠對整體活動和上下文進行洞察?;顒雍蜕舷挛倪M行洞察。模型可以識別一系列跑步的圖片,理解跑者的運動方向、速度和他們的身體語言。這意味著,它不僅僅是看到靜態的圖片,而是在心中構建了一個動態的、時間敏感的故事線。視頻理解:視頻理解:GPT-4V 夠重新排序圖像序列,預測視頻內
36、容,并進行精確夠重新排序圖像序列,預測視頻內容,并進行精確的時間點定位與因果推理。的時間點定位與因果推理。1)時間排序是一個評估模型如何根據時間進程重新排序混亂圖像的過程。例如,給定一系列關于制作三明治的圖像,模型能夠準確地指出哪一步是先,哪一步是后。這種能力證明了模型不僅能理解單個圖像,還能洞察圖像間的因果關系。2)時間預測涉及對未來可能事件的預測。給定一組圖像序列,例如一個人正要踢足球,模型能夠預測出下一步可能是球飛向門還是被守門員撲救。這種預測能力展現了模型對活動規律和結構的深入了解。3)時間定位與推理方面,GPT-4V 可以精準地定位一個特定的時間點,如擊球的瞬間,并進行相關的因果推理
37、。例如,模型可以分析守門員是否能夠擋住足球,這不僅基于他們的位置,還基于他們之前的動作和速度。這一能力體現了模型的高級推理和解析能力。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 16 of 27 圖圖 21:GPT-4V 能夠理解視頻幀序列能夠理解視頻幀序列 圖圖 22:GPT-4V 能夠將時間理解應用于特定物體能夠將時間理解應用于特定物體 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explo
38、rations with GPT-4V(ision)基于視覺引導的時間理解:通過特定的視覺提示,如一個被圈出的目標,基于視覺引導的時間理解:通過特定的視覺提示,如一個被圈出的目標,模型可以提供與此目標相關的時間細節和分析。模型可以提供與此目標相關的時間細節和分析。這種能力強化了模型在處理和解讀復雜時間和社交線索方面的深度。2.3.4.抽象視覺推理:善于處理和解讀抽象視覺刺激抽象視覺推理:善于處理和解讀抽象視覺刺激 抽象視覺刺激:從不同的抽象視覺刺激中提取語義是人類的一個獨特能抽象視覺刺激:從不同的抽象視覺刺激中提取語義是人類的一個獨特能力。力。對于 GPT-4V,它展示了在理解七巧板這類傳統的
39、幾何拼圖中的表現。這種拼圖由七個平面圖形組成,可拼成各種不重疊的圖形。例如,模型能夠解讀一圖并推斷它最像一只飛翔的鵝。它還可以從其他格式的抽象視覺圖表中提取信息,如 ASCII 藝術中的卡通人物。發現和關聯部件和物體:發現和關聯部件和物體:GPT-4V 可以識別物體的不同部分,并理解它可以識別物體的不同部分,并理解它們是如何組成一個完整的形象的。們是如何組成一個完整的形象的。例如,它可以被指導去找到和關聯由特定算法分割的物體部件,并成功地將它們組合成一個完整的圖像,如一個男孩的形象。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 17 of 27 圖
40、圖 23:GPT-4V 能夠理解七巧板和能夠理解七巧板和 ASCII 文本藝術。文本藝術。圖圖 24:GPT-4V 能夠理解局部圖像之間的關聯。能夠理解局部圖像之間的關聯。數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)智商測試:為了進一步挑戰智商測試:為了進一步挑戰 GPT-4V 的抽象視覺理解能力,模型進行了的抽象視覺理解能力,模型進行了智商測試。智商測試。1)模型在韋氏成年人智商
41、量表中顯示,它可以通過純文本、符號和自然圖像來解答各種問題,證明了它在抽象推理方面的潛力。(2)雷文進階矩陣是一個知名的非語言智商測試。這個測試試圖消除語言、文化和教育背景的影響。GPT-4V 可以用類似于人類的方式來完成這個測試,即直接處理整個圖像頁面,而不是將其轉化為文本。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 18 of 27 圖圖 25:GPT-4V 回答韋氏成年人智商量表回答韋氏成年人智商量表 圖圖 26:GPT-4V 回答雷文進階矩陣回答雷文進階矩陣 數據來源:The Dawn of LMMs:Preliminary Explor
42、ations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)2.3.5.情商測試:提供情感洞察、審美判斷功能情商測試:提供情感洞察、審美判斷功能 解讀面部的情感信息:解讀面部的情感信息:GPT-4V 在查看面部表情時,不僅能準確地識別在查看面部表情時,不僅能準確地識別出情感,還能為其提供背后的視覺線索。出情感,還能為其提供背后的視覺線索。這證明了 GPT-4V 能夠深入理解并共情于人們的情感。認知視覺與情感之間的聯系認知視覺與情感之間的聯系:GPT-4V 能夠洞察圖片中的情感
43、。能夠洞察圖片中的情感。它可以識別不同情感,如憤怒、敬畏和恐懼的細致。另外,GPT-4V 還具備一定的審美觀點,能夠依據社會常規來評價圖像的美觀度。此外,GPT-4V 能夠根據情感調整輸出內容。當被展示一個恐怖的圖像并被要求進行描述時,模型能夠按照給定的指示來增強或減輕其描述中的恐怖元素,確保其輸出與所需的情感相符。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 19 of 27 圖圖 27:GPT-4V 可以從人的面部表情讀取情緒可以從人的面部表情讀取情緒 圖圖 28:GPT-4V 可以根據社會標準和規范來判斷圖像可以根據社會標準和規范來判斷圖像美
44、學美學 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)2.4.GPTGPT-4V4V 新增多樣化需求,未來應用前景廣闊新增多樣化需求,未來應用前景廣闊 多模態大模型新增多種應用場景,對推理階段算力需求提升。多模態大模型新增多種應用場景,對推理階段算力需求提升。應用場景多或請求量大會增加對計算資源的需求,導致計算集群規模的擴大,算力需求增加。根據微軟官方論文,GPT-4V 具備多種高價
45、值的應用場景和新用途,特別是在文本+圖像交叉的領域。隨著應用場景的豐富,并發需求的增長,推理端所需的算力將持續提升。工業領域:工業領域:GPT-4V 主要用于缺陷、風險檢測。主要用于缺陷、風險檢測。GPT-4V 能夠識別出各種產品上的缺陷。此外,考慮到工作場所的安全,GPT-4V 可以有效地檢測和計數未佩戴必要個人防護設備(PPE)的工人,從而幫助確保高風險工作環境的安全。在零售領域,隨著自助結賬機的普及,GPT-4V 顯示了其在自動識別購物籃中的商品并為顧客自動結賬的能力。醫學領域:醫學領域:GPT-4V 在醫學圖像理解中的有效性已經得到證實。在醫學圖像理解中的有效性已經得到證實。在放射學報
46、告生成中,它可以根據各種醫學圖像生成完整的放射學報告。但由于評估生成報告的準確性需要領域知識,因此需要醫學專家進行評估。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 20 of 27 圖圖 29:GPT-4V 可以識別出不同產品的缺陷可以識別出不同產品的缺陷 圖圖 30:GPT-4V 可以生成放射學報告可以生成放射學報告 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations wit
47、h GPT-4V(ision)汽車保險領域:汽車保險領域:GPT-4V 有兩個明確的子類別應用:損害評估和保險報有兩個明確的子類別應用:損害評估和保險報告。告。前者涉及準確識別和評估車輛受到的損壞的關鍵任務,而后者不僅包括損壞識別,還包括識別圖像中描述的車輛特定信息,如品牌、型號、車牌和其他相關細節。自定義字幕生成器:自定義字幕生成器:GPT-4V 可以再視頻上自動生成文字注釋??梢栽僖曨l上自動生成文字注釋。GPT-4V可以為顯示在照片中的每個家庭成員生成姓名。這種個性化的方法有助于更準確和量身定制的照片組織。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條
48、款部分 21 of 27 圖圖 31:GPT-4V 可以生成汽車損壞評估可以生成汽車損壞評估 圖圖 32:GPT-4V 可以給照片加上注釋可以給照片加上注釋 數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)圖像生成:圖像生成:GPT-4V 為圖像編輯生成或重寫文本提示,從而優化編輯后的圖像,使其更具視覺吸引力。具體化智能體:具體化智能體:GPT-4V 也被用于模擬一個家庭機器人的角色,
49、它可以閱讀菜單來操作家用電器(例如咖啡機)并在房子里進行任務導向的導航。GUI 導航:導航:GPT-4V 不僅可以導航真實的物理世界,還可以與計算機或智能手機的圖形用戶界面(GUI)進行互動和導航,實現網絡瀏覽、在線購物等復雜任務。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 22 of 27 圖圖 33:GPT-4V 可以讀取咖啡機按鈕的完整菜單可以讀取咖啡機按鈕的完整菜單 圖圖 34:GPT-4V 可通過用戶界面截圖瀏覽網頁可通過用戶界面截圖瀏覽網頁 數據來源:The Dawn of LMMs:Preliminary Explorations
50、with GPT-4V(ision)數據來源:The Dawn of LMMs:Preliminary Explorations with GPT-4V(ision)3.多模態大模型算力需求仍在持續增長多模態大模型算力需求仍在持續增長 3.1.模型數據量顯著增加,訓練算力需求激增模型數據量顯著增加,訓練算力需求激增 4 44545 倍倍 多模態大模型訓練階段在數據源、模型結構、計算操作方面更加復雜。多模態大模型訓練階段在數據源、模型結構、計算操作方面更加復雜。1)多模態大模型需要處理多種來源的數據,如文本、圖像和聲音,其輸入數據的復雜性增加。2)此外,多模態模型的結構自然更復雜,因為它經常包含
51、為不同數據源優化的多個子模塊,如處理文本的 RNN 部分和處理圖像的 CNN 部分。3)為了在模型中有效地結合多種模態的信息,交互和融合層的引入可能涉及復雜的計算操作,如注意力機制,會進一步增加計算負擔。4)多模態模型往往需要更大量的訓練數據,進一步增加算力消耗。隨著模型復雜度的提升,算力需求在不斷攀升。隨著模型復雜度的提升,算力需求在不斷攀升。研究顯示,2010 年之前,訓練算力的增長率符合摩爾定律,大約每 20 個月翻一番。隨著深度學習和大模型的訓練需求增加,訓練算力的增長率大幅度提升,對訓練算力的要求提高了 10 到 100 倍。OpenAI 認為自 2012 年以來,大規模 AI 訓練
52、所需的算力呈指數級增長,每 3.4 個月翻一番。2012-2018 期間已增長超過 300,000 倍。我們認為當前多模態大模型仍在不斷迭代,訓練階段的算力將保持增長。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 23 of 27 圖圖 35:訓練算力在步入深度學習時代后開始快速增長:訓練算力在步入深度學習時代后開始快速增長 數據來源:Compute trends across three eras of machine learning 根據 Eleuther AI 團隊發布的Transformers Math 101,我們可以用以下公式估計大模
53、型的算力成本:CT6PD=(GPU 片數)*(單 GPU 實際混合計算算力)其中,C 表示模型需要的計算量,單位是 FLOP;P 表示模型包含的參數量;D 表示訓練數據規模,以 Tokens 數量為單位;表示吞吐量,單位為 FLOPs T 表示訓練時間,以秒為單位。GPT-4 對于算力的需求在同等訓練時長下相比對于算力的需求在同等訓練時長下相比 GPT-3 增長增長 445 倍。倍。根據 semi analysis 推測,GPT-4 在 120 層中總共包含了 1.8 萬億參數,包含約 13 萬億個 token。而 GPT-3 只有約 1750 億個參數,包含約 300 億個 token。根據
54、上述公式,我們推測 GPT-3 對應計算量 3.15E+23 FLOPs,GPT-4 對應計算量 1.40 E+26 FLOPs。我們假設 GPU 利用率為 35%,共訓練 90 天,考慮到 A100 的峰值性能為 3.12E+14 FLOPs/s,則與訓練GPT-3 需要 371 片 A100,GPT-4 需要 165344 片 A100,增長了大約 445倍。顯然,這個 GPU 的增長數量在當下算力緊缺的環境下難以滿足,只能延長訓練時間。表表 2:GPT-3 與與 GPT-4 訓練階段計算量測算訓練階段計算量測算 GPTGPT-3 3 GPTGPT-4 4 模型參數量(模型參數量(FLOP
55、sFLOPs)1.75E+11 1.80E+12 訓練數據規模(訓練數據規模(TokensTokens)3.00E+11 1.30E+13 計算量(計算量(FLOPsFLOPs)3.15E+23 1.40E+26 訓練時長(訓練時長(s s)7.78E+06 7.78E+06 吞吐量(吞吐量(FLOPsFLOPs)4.05E+16 1.81E+19 單單 GPUGPU 混合計算算力(混合計算算力(FLOPs/sFLOPs/s)3.12E+14 行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 24 of 27 GPUGPU 利用率(利用率(%)35%單
56、單 GPUGPU 實際混合計算算力(實際混合計算算力(FLOPs/sFLOPs/s)1.09E+14 所需所需 GPUGPU 數(片)數(片)371 165344 數據來源:國泰君安證券研究,semi analysis,Language Models are Few-Shot Learners GPT-4 訓練成本或達上億美元。訓練成本或達上億美元。如果選擇購買 GPU,按照 Thinkmate 上16,500 美元/片的單價,GPT-3 購買 GPU 的投資成本約 612.09 萬美元,而 GPT-4 的投資成本高達 27.28 億美元。如果選擇算力租賃,按照CoreWeave 的定價,一塊
57、 A100 80GB NVLINK 的 GPU 收費為 2.23 美元/小時,那么 GPT-3 的訓練成本將達到 177.08 萬美元,GPT-4 的訓練成本也將達到 7.89 億美元。表表 3:90 天訓練時長下天訓練時長下 GPT-3 與與 GPT-4 訓練成本測算訓練成本測算 GPTGPT-3 3 GPTGPT-4 4 GPU單片購買價格(美元單片購買價格(美元/片)片)16500 16500 GPU投資成本(萬美元)投資成本(萬美元)612.09 272817.46 GPU單片租賃價格(美元單片租賃價格(美元/小時)小時)2.23 2.23 GPU租賃成本(萬美元)租賃成本(萬美元)1
58、78.69 79642.86 數據來源:國泰君安證券研究,Thinkmate,CoreWeave 3.2.多場景應用持續落地,推理階段算力需求提升多場景應用持續落地,推理階段算力需求提升 推理成本受到計算集群的規模、能力、使用效率、批次大小以及集群的推理成本受到計算集群的規模、能力、使用效率、批次大小以及集群的管理策略等因素的影響。管理策略等因素的影響。集群的規模和計算能力決定了其處理任務的速度和效率,高性能的計算節點可以更快地完成任務,從而降低單位任務的推理成本。同時,集群的使用效率高意味著計算資源得到了充分利用,從而最大化了每單位時間的計算輸出,減少了推理成本。此外,大批次處理可以更好地利
59、用并行處理能力,進一步提高效率。GPT-4V 計算集群龐大,推理成本遠超計算集群龐大,推理成本遠超 GPT-3。根據 semi analysis 推測,GPT-4 推理成本是 Davinchi 模型的 3 倍,主要由于模型的計算集群大且使用效率低。對于 128 個 A100s 來推理 GPT-4 8000 seqlen,其成本估計為 0.0049 美元/1K tokens。并且,隨著 OpenAI 接入更多平臺,更多用戶會開始使用服務,這需要更多的計算資源,模型的推理次數會繼續增加。下游商業模式逐步清晰,大模型終端使用量有望增加。下游商業模式逐步清晰,大模型終端使用量有望增加。9 月 21 日
60、,微軟宣布 Microsoft 365 Copilot 將于 11 月 1 日面向企業客戶全面推出,定價為每用戶每月 30 美元。在 Word 中,Copilot 可以為用戶撰寫草稿、添加內容到現有文檔、重寫文本或生成摘要。在 Excel 中,用戶不僅可以通過 Copilot 快速生成公式,還可以使用提示來高亮關鍵數據。在 Outlook和 Teams 中,Copilot 可以為用戶提供郵件和會議的快速總結,推薦回復方式,并自動跟蹤無法參加的團隊會議。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 25 of 27 圖圖 36:在:在 word 中給
61、中給 Copilot 下達指令下達指令 圖圖 37:使用:使用 Copilot 撰寫電子郵件撰寫電子郵件 數據來源:Microsoft 官網 數據來源:Microsoft 官網 視頻創作平臺視頻創作平臺Wondershare Filmora全球上線,接入全球上線,接入OpenAI相關服務,相關服務,多模態應用前景廣泛。多模態應用前景廣泛。該平臺不僅推出了用于生成視頻腳本、文案及社交媒體描述的 AI 文案功能,而且還推出了 AI 繪圖功能,允許用戶簡單快捷地產生所需的圖片素材,創造出與眾不同的藝術作品。此外,Runway Gen-1 和 Gen-2 也已開放使用,Gen-2 不僅可以像 Gen-
62、1 一樣在原視頻的基礎上編輯出符合用戶要求的視頻,還可以從頭生成視頻。圖圖 38:Filmora 可以根據文字生成圖像可以根據文字生成圖像 圖圖 39:Runway 可以根據文字及圖片生成視頻可以根據文字及圖片生成視頻 數據來源:Wondershare 官網 數據來源:Runway 官網,國泰君安證券研究 從應用趨勢來看,隨著多模態大模型在語音、圖像和視頻等多種輸入輸從應用趨勢來看,隨著多模態大模型在語音、圖像和視頻等多種輸入輸出方式中的應用,內容創作領域可能會經歷前所未有的變革。出方式中的應用,內容創作領域可能會經歷前所未有的變革。這種廣泛的數據交互方式和豐富的應用場景為提升用戶體驗提供了巨
63、大的可能性,下游應用場景有望從辦公進一步拓展至工業、醫療等領域。同時,大模型持續迭代推動著算力進入高增長時代,服務器、芯片、IDC、光通信等廠商有望核心受益。4.投資建議投資建議 短期繼續看好算力板塊投資機會。短期繼續看好算力板塊投資機會。GPT-4V 發布,多模態時代正式開啟,無論在訓練階段還是在推理階段,對于算力的需求都相較于單模態模型有極大的提升,短期繼續看好算力板塊,推薦標的神州數碼、浪潮信息、拓維信息、恒潤股份、淳中科技,受益標的紫光股份、中科曙光、四川長虹、真視通、中國長城、蓮花健康、鴻博股份、潤建股份、中貝通信、烽火通信、恒為科技等。行業專題研究行業專題研究 請務必閱讀正文之后的
64、免責條款部分請務必閱讀正文之后的免責條款部分 26 of 27 表表 4:推薦標的估值表:推薦標的估值表 公司名稱公司名稱 股票代碼股票代碼 收盤價(元)收盤價(元)2023/10/31 EPS(元)(元)PE 評級評級 2023E 2024E 2025E 2023E 2024E 2025E 神州數碼 000034.SZ 31.07 1.81 2.25 2.68 17.17 13.81 11.59 增持 浪潮信息 000977.SZ 29.39 1.57 1.97 2.38 18.72 14.92 12.35 增持 拓維信息 002261.SZ 16.89 0.12 0.24 0.38 140
65、.75 70.38 44.45 增持 恒潤股份 603985.SH 41.98 0.81 1.40 1.96 51.83 29.99 21.42 增持 淳中科技 603516.SH 17.73 0.78 1.27 1.91 22.73 13.96 9.28 增持 數據來源:Wind,國泰君安證券研究 5.風險提示風險提示 應用端發展進度低于預期應用端發展進度低于預期。雖然模型短期在技術上有一定突破,但最終行業繁榮有賴于 AI 原生爆款應用誕生,應用端場景受限可能無法充分釋放算力需求。政策風險。政策風險。AI 作為新生事物,短期仍然存在監管風險。企業管理風險。企業管理風險。近期進入算力租賃行業的
66、公司大多主業與算力租賃不相關,管理毫無關聯的業務板塊可能對企業管理層產生壓力,進而出現企業管理失控風險。行業專題研究行業專題研究 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分 27 of 27 本公司具有中國證監會核準的證券投資咨詢業務資格本公司具有中國證監會核準的證券投資咨詢業務資格 分析師聲明分析師聲明 作者具有中國證券業協會授予的證券投資咨詢執業資格或相當的專業勝任能力,保證報告所采用的數據均來自合規渠道,分析邏輯基于作者的職業理解,本報告清晰準確地反映了作者的研究觀點,力求獨立、客觀和公正,結論不受任何第三方的授意或影響,特此聲明。免責聲明免責聲明 本報告僅供國泰君
67、安證券股份有限公司(以下簡稱“本公司”)的客戶使用。本公司不會因接收人收到本報告而視其為本公司的當然客戶。本報告僅在相關法律許可的情況下發放,并僅為提供信息而發放,概不構成任何廣告。本報告的信息來源于已公開的資料,本公司對該等信息的準確性、完整性或可靠性不作任何保證。本報告所載的資料、意見及推測僅反映本公司于發布本報告當日的判斷,本報告所指的證券或投資標的的價格、價值及投資收入可升可跌。過往表現不應作為日后的表現依據。在不同時期,本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司不保證本報告所含信息保持在最新狀態。同時,本公司對本報告所含信息可在不發出通知的情形下做出修改,投資者應當
68、自行關注相應的更新或修改。本報告中所指的投資及服務可能不適合個別客戶,不構成客戶私人咨詢建議。在任何情況下,本報告中的信息或所表述的意見均不構成對任何人的投資建議。在任何情況下,本公司、本公司員工或者關聯機構不承諾投資者一定獲利,不與投資者分享投資收益,也不對任何人因使用本報告中的任何內容所引致的任何損失負任何責任。投資者務必注意,其據此做出的任何投資決策與本公司、本公司員工或者關聯機構無關。本公司利用信息隔離墻控制內部一個或多個領域、部門或關聯機構之間的信息流動。因此,投資者應注意,在法律許可的情況下,本公司及其所屬關聯機構可能會持有報告中提到的公司所發行的證券或期權并進行證券或期權交易,也
69、可能為這些公司提供或者爭取提供投資銀行、財務顧問或者金融產品等相關服務。在法律許可的情況下,本公司的員工可能擔任本報告所提到的公司的董事。市場有風險,投資需謹慎。投資者不應將本報告作為作出投資決策的唯一參考因素,亦不應認為本報告可以取代自己的判斷。在決定投資前,如有需要,投資者務必向專業人士咨詢并謹慎決策。本報告版權僅為本公司所有,未經書面許可,任何機構和個人不得以任何形式翻版、復制、發表或引用。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并注明出處為“國泰君安證券研究”,且不得對本報告進行任何有悖原意的引用、刪節和修改。若本公司以外的其他機構(以下簡稱“該機構”)發送本報告,則由
70、該機構獨自為此發送行為負責。通過此途徑獲得本報告的投資者應自行聯系該機構以要求獲悉更詳細信息或進而交易本報告中提及的證券。本報告不構成本公司向該機構之客戶提供的投資建議,本公司、本公司員工或者關聯機構亦不為該機構之客戶因使用本報告或報告所載內容引起的任何損失承擔任何責任。評級說明評級說明 評級評級 說明說明 1.1.投資建議的比較標準投資建議的比較標準 投資評級分為股票評級和行業評級。以報告發布后的 12 個月內的市場表現為比較標準,報告發布日后的 12 個月內的公司股價(或行業指數)的漲跌幅相對同期的滬深 300 指數漲跌幅為基準。股票投資評級股票投資評級 增持 相對滬深 300 指數漲幅
71、15%以上 謹慎增持 相對滬深 300 指數漲幅介于 5%15%之間 中性 相對滬深 300 指數漲幅介于-5%5%減持 相對滬深 300 指數下跌 5%以上 2.2.投資建議的評級標準投資建議的評級標準 報告發布日后的 12 個月內的公司股價(或行業指數)的漲跌幅相對同期的滬深300 指數的漲跌幅。行業投資評級行業投資評級 增持 明顯強于滬深 300 指數 中性 基本與滬深 300 指數持平 減持 明顯弱于滬深 300 指數 國泰君安證券研究所國泰君安證券研究所 上海上海 深圳深圳 北京北京 地址 上海市靜安區新閘路 669 號博華廣場 20 層 深圳市福田區益田路 6003 號榮超商務中心 B 棟 27 層 北京市西城區金融大街甲 9 號 金融街中心南樓 18 層 郵編 200041 518026 100032 電話(021)38676666(0755)23976888(010)83939888 E-mail: