《生成式人工智能行業專題研究:海外大模型篇生成式AI加速創新行業迎歷史性機遇-240329(47頁).pdf》由會員分享,可在線閱讀,更多相關《生成式人工智能行業專題研究:海外大模型篇生成式AI加速創新行業迎歷史性機遇-240329(47頁).pdf(47頁珍藏版)》請在三個皮匠報告上搜索。
1、生成式生成式AI加速創新,行業迎歷史性機遇加速創新,行業迎歷史性機遇計算機行業計算機行業分析師:耿軍軍郵箱:SAC執業資格證書編碼:S0020519070002聯系人:王朗郵箱:生成式人工智能行業專題研究:海外大模型篇生成式人工智能行業專題研究:海外大模型篇投資評級推薦維持證券研究報告證券研究報告2024年年3月月29日日請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分目錄目錄 第一部分:生成式第一部分:生成式AI快速發展,技術奇點有望到來快速發展,技術奇點有望到來 第二部分:技術創新百花齊放,海外巨頭引領創新第二部分:技術創新百花齊放,海外巨頭引領創新 第三部分:風險提示第三
2、部分:風險提示2PBmVlX8YlYnVlW6MbP7NsQrRoMtPkPnNqMiNmMoM7NnMrRuOrRpMxNpOrO請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展3資料來源:信通院人工智能生成內容(AIGC)白皮書,CSDN官網,阿里云開發者社區,NIH Record官網,MIT官網,51CTO官網,機器之心官網,騰訊云開發者社區,科技行者官網,雷鋒網,澎湃新聞網,winbuzzer官網,MBA百科,Geekwire官網,datamarketinglabs官網,安全客官
3、網,AIGC開放社區公眾號,IT之家官網,OpenAI官網,36氪官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展41基礎的生成算法模型是基礎的生成算法模型是驅動驅動AI的關鍵的關鍵2014年,伊恩古德費洛(lan Goodfellow)提出的生成對抗網絡(Generative Adversarial Network,GAN)成為早期最為著名的生成模型。GAN使用合作的零和博弈框架來學習,被廣泛用于生成圖像、視頻、語音和三維物體模型。隨后,Transformer、基于
4、流的生成模型(Flow-based models)、擴散模型(Diffusion Model)等深度學習的生成算法相繼涌現。Transformer模型是一種采用自注意力機制的深度學習模型,這一機制可按輸入數據各部分的重要性分配權重,可用于自然語言處理(NLP)、計算機視覺(CV)領域應用,后來出現的BERT、GPT-3、laMDA等預訓練模型都是基于Transformer模型建立的。圖:圖:AIGC技術累積融合技術累積融合資料來源:騰訊研究院AIGC發展趨勢報告,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型
5、持續迭代,AI行業快速發展行業快速發展51基礎的生成算法模型是基礎的生成算法模型是驅動驅動AI的關鍵的關鍵模型模型提出時間提出時間模型描述模型描述變分自動編碼(VariationalAutoencoders,VAE)2014年基于變分下界約束得到的Encoder-Decoder模型對。生成對抗網絡(GAN)2014年基于對抗的Generator-Discriminator模型對?;诹鞯纳赡P?Flow-based models)2015年學習一個非線性雙射轉換(bijective transformation),其將訓練數據映射到另一個空間,在該空間上分布是可以因子化的,整個模型架構依靠直
6、接最大化log-likelihood來完成。擴散模型(Diffusion Model)2015年擴散模型有兩個過程,分別為擴散過程和逆擴散過程。在前向擴散階段對圖像逐步施加噪聲,直至圖像被破壞變成完全的高斯噪聲,然后在逆向階段學習從高斯噪聲還原為原始圖像的過程。經過訓練,該模型可以應用這些去噪方法,從隨機輸入中合成新的“干凈”數據。Transformer模型2017年一種基于自注意力機制的神經網絡模型,最初用來完成不同語言之間的文本翻譯任務,主體包含Encoder和Decoder部分,分別負責對源語言文本進行編碼和將編碼信息轉換為目標語言文本。神經輻射場(Neural Radiance Fie
7、ld,NeRF)2020年提出了一種從一組輸入圖像中優化連續5D神經輻射場的表示(任何連續位置的體積密度和視角相關顏色)的方法,要解決的問題就是給定一些拍攝的圖,如何生成新的視角下的圖。CLIP(Contrastive Language-Image PreTraining)模型2021年1)進行自然語言理解和計算機視覺分析;2)使用已經標記好的“文字-圖像”訓練數據。一方面對文字進行模型訓練,一方面對圖像進行另一個模型的訓練,不斷調整兩個模型的內部參數,使得模型分別輸出的文字特征和圖像特征值確認匹配。DiT(Diffusion Transformers)模型2023年用Transformer替
8、換了傳統的U-Net主干,在潛在空間中對圖像進行建模,并通過Transformer的注意力機制學習圖像的全局依賴關系,具有良好的可擴展性,可以訓練到更高的分辨率和更大的模型容量。資料來源:騰訊研究院AIGC發展趨勢報告,經緯創投公眾號,國元證券研究所表:主流生成模型一覽表表:主流生成模型一覽表請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展61基礎的生成算法模型是基礎的生成算法模型是驅動驅動AI的關鍵的關鍵資料來源:虎嗅APP公眾號,國元證券研究所通過梳理全球主流大語言模型(LLM)的發
9、展脈絡,2018年以來的GPT系列、LLaMA系列、BERT系列、Claude系列等多款大模型均發源于Transformer架構。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展72預訓練模型引發了預訓練模型引發了AI技術能力的質變技術能力的質變預訓練模型是為了完成特定任務基于大型數據集訓練的深度學習模型,讓AI模型的開發從手工作坊走向工廠模式,加速AI技術落地。2017年,Google顛覆性地提出了基于自注意力機制的神經網絡結構Transformer架構,奠定了大模型預訓練算法架構的基
10、礎。2018年,OpenAI和Google分別發布了GPT-1與BERT大模型,意味著預訓練大模型成為自然語言處理領域的主流。資料來源:IDC2022中國大模型發展白皮書,國元證券研究所圖:預訓練相當于“通識教育”圖:預訓練相當于“通識教育”圖:圖:Transformer模型結構模型結構資料來源:CSDN官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展2預訓練模型引發了預訓練模型引發了AI技術能力的質變技術能力的質變開發者開發者預訓練模型預訓練模型應用應用參數量參數量
11、領域領域開發者開發者預訓練模型預訓練模型應用應用參數量參數量領域領域谷歌Gemini 1.5圖像、文本、視頻、音頻和代碼理解,生成文本等多模態DeepMindGato多面手的智能體12億多模態Gemini圖像、文本、視頻、音頻和代碼理解,生成文本等多模態Gopher語言理解與生成2800億NLPBERT語言理解與生成4810億NLPAlphaCode代碼生成414億NLPLaMDA對話系統NLPOpenAIGPT4圖像與文本理解、文本生成等多模態PaLM語言理解與生成、推理、代碼生成 5400億NLPGPT3語言理解與生成、推理等1750億NLPImagen語言理解與圖像生成110億多模態CL
12、IP&DALL-E圖形生成、跨模態檢索120億多模態Parti語言理解與圖像生成200億多模態Codex代碼生成120億NLP微軟Florence視覺識別6.4億CVChatGPT語言理解與生成、推理等NLPTuring-NLP語言理解、生成170億NLP英偉達Megatron語言理解與生成5300億NLPFacebookOPT-175B語言模型1750億NLPTuring NLPM2M-100100種語言互譯150億NLPStability AIStable Diffusion 語言理解與圖像生成多模態MetaLLaMA語言理解與生成70-650億NLPAnthropicClaude語言理解
13、與生成等NLPLLaMA 2語言理解與生成70-700億NLPClaude 2語言理解與生成、編程、推理等NLPSAM圖像分割10億CVClaude 3語言理解與生成、編程、推理、圖片理解等多模態表:海外主要預訓練大模型匯總表:海外主要預訓練大模型匯總資料來源:騰訊研究院AIGC發展趨勢報告,智東西公眾號,澎湃新聞網,Llama family官網,百度云智能官網,Datalearner官網,AIGC開放社區公眾號,機器之心公眾號,CSDN官網,國元證券研究所8請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI行業
14、快速發展行業快速發展93Scaling Laws:模型容量、數據量、訓練成本共同構成了大模型訓練的不可能三角。大模型訓練的目標是最大化模型性能,模型訓練成本(GPU的數量和訓練時間等)是受限的,因此一般通過增加數據集大小和增加模型中的參數量兩種途徑來提升模型性能。預訓練數據直接決定預訓練數據直接決定AI大模型性能大模型性能資料來源:神州問學公眾號,國元證券研究所圖:擴展大模型的三個選項:模型容量、數據量、訓練成本圖:擴展大模型的三個選項:模型容量、數據量、訓練成本請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷程:算法模型持續迭代,AI
15、行業快速發展行業快速發展103預訓練數據從數據來源多樣性、數據規模、數據質量三方面影響模型性能。以GPT模型為例,其架構從第1代到第4代均較為相似,而用來訓練數據的數據規模和質量卻有很大的提升,進而引發模型性能的飛躍。以吳恩達(Andrew Ng)為代表的學者觀點認為,人工智能是以數據為中心的,而不是以模型為中心?!坝袠俗⒌母哔|量數據才能釋放人工智能的價值,如果業界將更多精力放在數據質量上,人工智能的發展會更快”。預訓練數據直接影響預訓練數據直接影響AI大模型性能大模型性能圖:預訓練數據直接影響模型性能圖:預訓練數據直接影響模型性能資料來源:阿里研究院公眾號,國元證券研究所來源多樣性來源多樣性
16、針對大模型需求制定配比針對大模型需求制定配比不同場景/領域的數據具有不同的語言特征,對模型能力提升的點也不同。如:書籍語料占比提升,可以提升上下文理解能力足夠規模的高質量語料足夠規模的高質量語料隨著模型參數量的增加,也需要更多數據來訓練。只有參數規模突破了100億以上的大模型才具有“涌現能力”高質量訓練集能提高模型精度高質量訓練集能提高模型精度,減少訓練時長減少訓練時長有重復、噪聲、錯誤數據等低質量語料會損害模型性能。如:訓練語料有重復,會影響模型對上下文的理解能力數據規模數據規模數據質量數據質量請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代
17、,發展歷程:算法模型持續迭代,AI行業快速發展行業快速發展113為了追求更好的模型性能,模型參數規模也與訓練數據量同步快速增長,模型參數量大約每18個月時間就會增長40倍。例如2016年最好的大模型ResNet-50參數量約為2000萬,2020年的GPT-3模型參數量達1750億,2023年的GPT-4參數規模則更加龐大。圖:大模型參數規??焖僭鲩L圖:大模型參數規??焖僭鲩L預訓練數據直接影響預訓練數據直接影響AI大模型性能大模型性能資料來源:中國信通院大模型智算服務白皮書,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.1 發展歷程:算法模型持續迭代,發展歷
18、程:算法模型持續迭代,AI行業快速發展行業快速發展124市場規模市場規模圖:中國人工智能市場規模及預測(單位:億元人民幣)圖:中國人工智能市場規模及預測(單位:億元人民幣)資料來源:格物致勝公眾號,國元證券研究所圖:全球人工智能市場規模及預測(單位:億美元)圖:全球人工智能市場規模及預測(單位:億美元)資料來源:Statista官網,國元證券研究所隨著人工智能技術的不斷發展,其應用場景日益豐富,各行各業所匯聚的龐大數據資源為技術的實際應用和持續完善提供了堅實基礎。根據第三方咨詢機構格物致勝的統計數據,2022年中國人工智能市場規模達到2058億元,預計2023-2027年市場規模將保持28.2
19、%的復合增長率,2027年中國人工智能市場規模將達到7119億元。根據statista的統計數據,2023年全球人工智能市場規模達2079億美元,預計2030年將增至18475億美元。0100020003000400050006000700080002020202120222023E2024E2025E2026E2027E020004000600080001000012000140001600018000200002021202220232024E2025E2026E2027E2028E2029E2030E請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一
20、模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI131多模態技術成為大模型主戰場多模態技術成為大模型主戰場資料來源:Shengqiong Wu等NExT-GPT:Any-to-Any Multimodal LLM,國元證券研究所圖:多模態模型實現圖:多模態模型實現any to any模態的輸入和輸出模態的輸入和輸出多模態較單一模態更進一步,已經成為大模型主戰場。人類通過圖片、文字、語言等多種途徑來學習和理解,多模態技術也是通過整合多種模態、對齊不同模態之間的關系,使信息在模態之間傳遞。2023年以來,OpenAI發布的GPT-4V、Google發布的Gemini、Anthro
21、pic發布的Claude 3均為多模態模型,展現出了出色的多模態理解及生成能力。未來,多模態有望實現any to any模態的輸入和輸出,包括文本、圖像、音頻、視頻、3D模型等多種模態。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI141多模態技術成為大模型主戰場多模態技術成為大模型主戰場資料來源:機器之心公眾號,國元證券研究所圖:多模態模型圖:多模態模型GPT-4V的問答展示的問答展示多模態大型語言模型(MLLMs)的通用架構,由1)視覺編碼器(Visual Encoder)、2)語言
22、模型(Language Model)和3)適配器模塊(Adapter Module)組成。1)負責處理和理解輸入的視覺信息,通常使用預訓練的視覺模型,如Vision Transformer(ViT)或其他卷積神經網絡(CNN)架構,來提取圖像特征;2)負責處理文本輸入,理解和生成自然語言,語言模型基于Transformer架構,如BERT或GPT系列模型;3)負責在視覺和語言模態之間建立聯系。資料來源:Davide Caffagni等The Evolution of Multimodal Large Language Models:A Survey,國元證券研究所圖:多模態模型架構圖圖:多模態
23、模型架構圖請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI1523D生成:生成:AI生成技術的下一個突破口生成技術的下一個突破口資料來源:Xiaoyu Li等Advances in 3D Generation:A Survey,國元證券研究所圖:圖:3D生成技術的方法、數據集和應用生成技術的方法、數據集和應用3D生成技術應用廣闊,但仍處在技術臨界點以前。3D生成技術可廣泛應用于3D虛擬人、3D人臉、3D場景等領域,目前3D生成的主流技術路徑大致可分為:1)text-to-2D,再通過NeR
24、F或Diffusion模型完成2D-to-3D,或直接通過2D素材完成3D建模;2)直接text-to-3D,該路徑直接使用3D數據進行訓練,從訓練到微調到推理都基于3D數據。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI163具身智能:智能涌現從虛擬世界走向物理世界具身智能:智能涌現從虛擬世界走向物理世界資料來源:AI前線公眾號,國元證券研究所圖:圖:Figure 01的技術原理的技術原理資料來源:甲子光年公眾號,國元證券研究所圖:圖:RT-2的技術原理的技術原理當大模型遷移到機器人身
25、上,大模型的智能和泛化能力有望點亮通用機器人的曙光。2023年7月,谷歌推出機器人模型RoboticsTransformer 2(RT-2),這是一個全新的視覺-語言-動作(VLA)模型,從網絡和機器人數據中學習,并將這些知識轉化為機器人控制的通用指令。2024年3月,機器人初創企業Figure展示了基于OpenAI模型的全尺寸人形機器人Figure 01,機器人動作流暢,所有行為都是學到的(不是遠程操作),并以正常速度(1.0 x)運行。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI1
26、74通用人工智能還有多遠通用人工智能還有多遠通用人工智能(Artificial General Intelligence,AGI)是一種可以執行復雜任務的人工智能,能夠完全模仿人類智能的行為。DeepMind提出了一個衡量“性能”和“通用性”的矩陣,涵蓋從無人工智能到超人類AGI(一個在所有任務上都優于所有人的通用人工智能系統)的五個級別。性能是指人工智能系統的能力與人類相比如何,而通用性表示人工智能系統能力的廣度或其達到矩陣中指定性能水平的任務范圍。性能狹義(明確范圍的任務或任務集)廣義(廣泛的非體力任務,包括元認知能力,如學習新技能)0級:No AI1級:Emerging(等于或略優于人類
27、)2級:Competent(至少50百分位的熟手)3級:Expert(至少90百分位的熟手)4級:Virtuoso(至少99百分位的熟手)5級:Superhuman(超過100%的人類)Narrow Non-AI(計算機軟件、翻譯器)General Non-AI(human-in-theloop計算)Emerging Narrow AI(GOFAI4:簡單基于規則的系統,例如SHRDLU(Winograd,1971)Emerging AGI(ChatGPT(Open AI,2023)、Bard、Llama 2)Competent Narrow AI(Jigsaw,Siri,Alexa,Goog
28、le Assistant,PaLl)Competent AGI尚未實現Expert Narrow AI(拼 寫 和 語 法 檢 查 器,如Grammarly;生成圖像模型,如Imagen)Expert AGI尚未實現Virtuoso Narrow AI(Deep Blue(Campbell et all)AlphaGo)Virtuoso AGI尚未實現Superhuman Narrow AI(AlphaFold,AlphaZero,StockFish)Artificial Superintelligence(ASI)尚未實現資料來源:DeepMindLevels of AGI:Operatio
29、nalizing Progress on the Path to AGI,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分1.2 趨勢展望:從單一模態到多模態,從趨勢展望:從單一模態到多模態,從AI邁向邁向AGI184通用人工智能還有多遠通用人工智能還有多遠2023年12月,黃仁勛表示,如果把通用人工智能(AGI)定義為能以“相當有競爭力”的方式完成人類智能測試的計算機,那么在未來五年內,我們將看到AGI。2023年11月,DeepMind聯合創始人兼首席AGI科學家Shane Legg在訪談中表示,2028年,人類有50%的概率開發出第一個AGI,并且帶領的De
30、epMind研究團隊在Arxiv上公布了一篇名為AGI的水平:實現AGI道路上的操作進展論文,具體闡述了AGI的路線圖和時間表。2020年,谷歌機器人團隊的軟件工程師Alex Irpan認為,到2035年我們有10%的概率實現AGI,但到了2024年,他認為在2028年就有10%的概率接近AGI,到2035年則有25%的概率實現AGI。圖:對圖:對AGI時間線的預測變得更樂觀時間線的預測變得更樂觀資料來源:海外獨角獸公眾號,國元證券研究所圖:圖:DeepMind關于關于AGI論文論文資料來源:DeepMindLevels of AGI:Operationalizing Progress on
31、the Path to AGI,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分目錄目錄 第一部分:生成式第一部分:生成式AI快速發展,技術奇點有望到來快速發展,技術奇點有望到來 第二部分:技術創新百花齊放,海外巨頭引領潮流第二部分:技術創新百花齊放,海外巨頭引領潮流 第三部分:風險提示第三部分:風險提示19請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI20圖:圖:OpenAI發展歷程發展歷程資料來源:AI前線公眾號,MBA百科,騰訊研究院公眾號,機器之心官網,華爾
32、街見聞官網,騰訊網,國元證券研究所OpenAI宣布成立;公司定位為“非盈利組織”,主旨是努力在安全的前提下創建通用 人 工 智 能(AGI)并 讓全人類共同受益。2015OpenAI 從 非盈 利 過 渡 到“封頂盈利”OpenAI 接 受微軟10億美元投資,雙方合作 為 微 軟Azure 云端平臺服務開發AI技術。2019OpenAI于3月發布GPT-4;OpenAI的2023 ARR年收入已達16億美元,相比去年增長56倍,公 司 估 值 達1000 億 美 元。2023OpenAI于2月發布AI視頻生成模型Sora,能根據提示詞生成長達一分鐘的高清視頻。1OpenAI創立:以實現安全的創
33、立:以實現安全的AGI為主旨為主旨OpenAI于6月發布GPT-3模型,9月微軟獲得該模型獨家許可。OpenAI 于 11月發布聊天機器 人 模 型ChatGPT,能夠與人類進行多輪連續的各種對話,給出較為合理的回答,引發全球關注。202020222024OpenAI由Sam Altman、Elon Musk等在2015年創辦,主旨是努力在安全的前提下創建通用人工智能(AGI)并讓全人類共同受益;2020年發布GPT-3模型,2022年11月發布GPT-3.5模型,能夠與人類進行多輪連續的各種對話,給出較為合理的回答;2023年3月發布GPT-4模型;2024年2月發布AI視頻生成模型Sora
34、,AI視頻生成領域迎來ChatGPT時刻。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI21GPT-1通過無監督預訓練和有監督微調兩個步驟訓練;GPT-2無需有監督微調,而是通過更大規模的模型參數和訓練數據集進行無監督預訓練,模型參數量達到15億;GPT-3的模型參數和數據集進一步擴大,模型參數量增加到1750億,上下文窗口寬度增加到2048個token。圖:圖:GPT模型經歷多輪迭代模型經歷多輪迭代資料來源:智東西微信公眾號,國元證券研究所2GPT發展回顧:模型性能隨結構、規模的提升不斷優化發
35、展回顧:模型性能隨結構、規模的提升不斷優化請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI22ChatGPT/GPT-3.5:2022年11月30日發布,在GPT-3的基礎上進行有監督微調(Supervised Fine-Tuning)、獎勵模型訓練(RewardModeling)和來自人類反饋的強化學習(Reinforcement Learning from Human Feedback,RLHF)。ChatGPT具有以下特征:主動承認自身錯誤、質疑不正確的問題、承認自身的無知和對專業技術的不了
36、解以及支持連續多輪對話,極大提升了對話交互模式下的用戶體驗。圖:圖:GPT-3.5訓練過程訓練過程資料來源:OpenAI官網,國元證券研究所2GPT 發展回顧:發展回顧:GPT3.5改進訓練步驟實現性能躍升改進訓練步驟實現性能躍升請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI232GPT發展回顧:多模態大模型發展回顧:多模態大模型GPT-4圖:圖:GPT-4在各類學術水平測試中的成績在各類學術水平測試中的成績資料來源:量子位微信公眾號,國元證券研究所圖:圖:GPT-4根據圖片生成網站根據圖片生成
37、網站資料來源:量子位微信公眾號,國元證券研究所2023年3月14日,OpenAI宣布推出大型的多模態模型GPT-4,可以接收圖像和文本輸入。OpenAI稱,GPT-4參加了多種基準考試測試,包括美國律師資格考試Uniform Bar Exam、法學院入學考試LSAT、“美國高考”SAT數學部分和證據性閱讀與寫作部分的考試,在這些測試中,它的得分高于88%的應試者。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI242GPT發展回顧:更快更強更便宜的發展回顧:更快更強更便宜的GPT-4 Turbo0
38、0.010.020.030.040.050.060.07GPT-4(8K)GPT4(32K)GPT4 Turbo(128K)輸入輸出2023年11月7日,OpenAI在開發者大會披露新版本具備:1)更長的上下文長度:支持128K上下文窗口,相當于300頁文本;2)更便宜:新模型的價格是每千輸入token 1美分,而每千輸出token 3美分,輸入和輸出費用分別降至GPT-4(8K)的1/3和1/2,總體使用上降價約2.75倍;3)更聰明:內部知識庫更新至2023年4月,并支持上傳外部數據庫或文件;4)視聽多模態:支持文生圖模型DALL E3、文本轉語音模型TTS,未來還將支持自動語音識別模型W
39、hisper v3;5)更快的速度:用戶每分鐘的Token速率限制將會翻倍,可通過API賬戶申請進一步提速。圖:圖:GPT-4、GPT-4 Turbo模型價格對比(單位模型價格對比(單位:美元美元/token)資料來源:愛范兒公眾號,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI3最新進展:最新進展:GPT-5有望實現性能躍升有望實現性能躍升圖:圖:GPT-5商標申請商標申請資料來源:AIGC開放社區公眾號,國元證券研究所商標律師Josh Gerben在社交平臺曬出OpenAI于2
40、023年7月18日向美國專利商標局(USPTO)提交GPT-5商標的消息,GPT-5提供的功能包括自然語言處理、文本生成、理解、語音轉錄、翻譯、預測和分析等,實際發布功能可能有變動。根據OpenAI首席執行官Sam Altman的披露,GPT-5將具備三大升級點:1)多模態:支持文本、語音、圖像、代碼和視頻輸入;2)個性化:理解個人偏好的能力,如整合用戶信息、電子郵件、日歷、約會偏好,并與外部數據源建立聯系;3)推理能力和準確性:如果GPT-4目前解決了人類任務的10%,GPT-5應該是15%或者20%,當前大模型的通病幻覺問題也將在GPT-5中得到解決。25請務必閱讀正文之后的免責條款部分請
41、務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI264圖片生成模型:圖片生成模型:OpenAI發布發布DALL.E 32023年9月,OpenAI發布DALL.E 3,比以往系統更能理解細微差別和細節,能夠讓用戶更加輕松地將自己的想法轉化為非常準確的圖像;該模型原生構建在ChatGPT之上,用ChatGPT來創建、拓展和優化prompt,用戶無需在prompt上花費太多時間。DALL.E 3的技術架構主要分為圖像描述生成和圖像生成兩大模塊。圖像描述生成模塊使用了CLIP圖像編碼器和GPT語言模型(GPT-4),可為每張圖像生成細致
42、的文字描述;圖像生成模塊先用VAE將高分辨率圖像壓縮為低維向量,降低學習難度。然后使用T5 Transformer將文本編碼為向量,并通過GroupNorm層將其注入diffusion模型,指導圖像生成方向。26圖:圖:DALL.E 3生成高質量圖像生成高質量圖像資料來源:OpenAI官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI275視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”Sora2024年2月16日,OpenAI發布AI生成視頻
43、模型Sora,其卓越之處在于能夠生成跨越不同持續時間、縱橫比和分辨率的視頻和圖像,甚至包括生成長達一分鐘的高清視頻,“碾壓”了行業目前平均約”4s”的視頻生成長度,AI視頻生成領域迎來ChatGPT時刻。OpenAI在Sora技術報告中寫道:”Our results suggest that scaling video generation models is a promising path towards buildinggeneral purpose simulators of the physical world”.27圖:圖:Sora生成生成1分鐘的連貫高清視頻分鐘的連貫高清視頻資料
44、來源:OpenAI官網,國元證券研究所圖:圖:Sora官方簡介官方簡介資料來源:OpenAI官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI285視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”SoraSora不僅接受文字輸入,還可根據圖像和視頻輸入來生成視頻。Sora能夠執行各種圖像和視頻編輯任務創建完美循環的視頻、為靜態圖像制作動畫、在時間維度上向前或向后擴展視頻、在兩個截然不同的輸入視頻之間實現無縫過渡、零輸入轉換輸入視頻風格和場景,展
45、示了該模型在圖像和視頻編輯領域的強大能力和應用潛力,有望給產業端帶來革命性的變革。28圖:圖:Sora根據圖片輸入生成視頻根據圖片輸入生成視頻資料來源:OpenAI官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI295視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”Sora模型尺度擴展帶來驚人的涌現能力(emerging simulation capabilities)。1)3D一致性:在3D一致性方面,Sora能夠生成帶有動態攝像頭運動的視
46、頻。隨著攝像頭的移動和旋轉,人物和場景元素在三維空間中始終保持一致的運動規律。2)較長視頻的連貫性和對象持久性:這是視頻生成領域面對的一個重要挑戰,而Sora能有效為短期和長期物體間的依賴關系建模,人和物被遮擋或離開畫面后,仍能被準確地保存和呈現。3)與世界互動:Sora能以簡單的方式模擬影響世界狀態的行為,例如畫家可以在畫布上留下新的筆觸。4)模擬數字世界:Sora能夠模擬人工過程,比如視頻游戲。29圖:圖:Sora生成的視頻具備生成的視頻具備3D一致性一致性資料來源:OpenAI官網,國元證券研究所圖:圖:Sora生成生成我的世界我的世界游戲視頻游戲視頻資料來源:OpenAI官網,國元證券
47、研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI305視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”SoraSora的本質是一種Diffusion transformer模型。Diffusion transformer(DiT)架構由William Peebles 和Saining Xie在2023年提出,使用Transformer來訓練圖像的潛在擴散模型,取代了通常使用的U-Net骨干網絡,融合了擴散模型與自回歸模型的雙重特性。AI生成視頻的技術路線主
48、要經歷了四個階段:循環網絡(RNN)、生成對抗網絡(GAN)、自回歸模型(autoregressive transformers)、擴散模型(diffusion models)。目前領先的視頻模型大多數是擴散模型,比如Runway、Pika等。自回歸模型由于更好的多模態能力與擴展性也成為熱門的研究方向,如谷歌在2023年12月發布的VideoPoet。30圖:圖:Diffusion transformer模型架構模型架構資料來源:深度學習與計算機視覺公眾號,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技
49、術,終極目標劍指AGI5視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”SoraSora模型訓練范式:patch統一原始視覺數據。OpenAI提出了一種用patch作為視頻數據來訓練視頻模型的方式,patch是將圖像或視頻幀分割成的一系列小塊區域,是模型處理和理解原始數據的基本單元,這是從大語言模型的token汲取的靈感。Token統一了文本的多種模式代碼、數學和各種自然語言,而patch則統一了圖像與視頻。過去的圖像和視頻生成方法通常會將視頻調整大小、裁剪或修剪為標準尺寸,而這損耗了視頻生成的質量,將圖片與視頻數據patch化之后,無需對數據進行壓縮,就能
50、夠對不同分辨率、持續時間和長寬比的視頻和圖像的原始數據進行訓練。圖:圖:OpenAI將視頻轉換為將視頻轉換為patch來統一視覺數據輸入來統一視覺數據輸入資料來源:騰訊研究院公眾號,國元證券研究所31請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.1 OpenAI引領大模型技術,終極目標劍指引領大模型技術,終極目標劍指AGI325視頻生成模型:視頻生成模型:OpenAI發布“物理世界模擬器”發布“物理世界模擬器”SoraSora模型訓練范式:re-captioning標注技術帶來優秀的語言理解能力。訓練文本轉視頻生成系統需要大量帶有相應文本字幕的視頻,為此OpenAI借鑒了
51、DALL E3中的re-captioning技術,首先訓練了一個高度描述性的轉譯員模型,然后使用它為訓練集中的所有視頻生成文本轉譯。通過這種方式對高度描述性的視頻轉譯進行訓練,可顯著提高文本保真度和視頻的整體質量。與DALL E3類似,OpenAI利用GPT技術將簡短的用戶提示轉換為更長的詳細轉譯,并發送到視頻模型,令Sora能精確按照用戶提示生成高質量視頻。32圖:提示詞“一個玩具機器人穿著綠色的連衣裙和太陽帽在美麗的日落期間在南極洲愉快地漫步”圖:提示詞“一個玩具機器人穿著綠色的連衣裙和太陽帽在美麗的日落期間在南極洲愉快地漫步”資料來源:OpenAI官網,國元證券研究所請務必閱讀正文之后的
52、免責條款部分請務必閱讀正文之后的免責條款部分2.2 Meta采取開源策略,發布多款重磅大模型采取開源策略,發布多款重磅大模型331大語言模型:開源大語言模型:開源LLaMA 22023年7月,Meta發布了開源大語言模型LLaMA 2。LLaMA 2是在LLaMA 1基礎之上構建而成,訓練數據比上一版本多出40%,擁有70億、130億和700億三種參數,并且允許商業化。技術方面,該預訓練模型接受了2萬億個標記的訓練,上下文長度是上一版本的兩倍,能處理更長的文本內容;性能方面,LLaMA-13B在大多數基準上超過了參數量達1750億的GPT-3。33圖:圖:LLaMA 2有三種參數規模有三種參數
53、規模資料來源:36氪官網,國元證券研究所圖:圖:LLaMA 2訓練流程訓練流程資料來源:36氪官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.2 Meta采取開源策略,發布多款重磅大模型采取開源策略,發布多款重磅大模型342視覺大模型:開源圖片分割基礎模型視覺大模型:開源圖片分割基礎模型SAM2023年4月,Meta AI在官網發布了基礎模型Segment Anything Model(SAM)并開源。SAM已在1100萬張圖片和11億個掩碼的數據集上進行了訓練,具有超強的自動識別、切割功能。SAM能感知超出數據訓練的對象和圖像,就算圖片不在SAM訓練范
54、圍內,它也能識別。這意味著,用戶無需再收集自己的細分數據,并為用例模型進行微調。SAM可以集成在任何希望識別、切割對象的應用中,在醫療、農業、氣象、天文、媒體等主流行業擁有廣闊的應用空間。圖:圖:SAM模型識別能力極強模型識別能力極強資料來源:AIGC開放社區公眾號,國元證券研究所圖:圖:SAM可用于醫療領域可用于醫療領域資料來源:AIGC開放社區公眾號,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.2 Meta采取開源策略,發布多款重磅大模型采取開源策略,發布多款重磅大模型353多模態大模型:開源多模態大模型:開源ImageBind,具備超強聯想能力,具備
55、超強聯想能力2023年5月,Meta開源了多模態大模型ImageBind,可跨越圖像、視頻、音頻、深度、熱量和空間運動6種模態進行檢索。例如,輸入鴿子的圖片,外加一個摩托音頻,模型能夠檢索出一張摩托和鴿子的圖片。ImageBind模型把不同模態數據串聯在一個嵌入空間(Embedding Space),從多維度理解世界,未來將引入更多模態增強對世界感知,比如如觸覺、語音、嗅覺和大腦fMRI信號。圖:圖:ImageBind模型可跨越模型可跨越6種模態進行檢索種模態進行檢索資料來源:新智元公眾號,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.3 Google技術積
56、累深厚,模型發布節奏加速技術積累深厚,模型發布節奏加速1多年布局:理論基礎深厚,發布多個基礎架構多年布局:理論基礎深厚,發布多個基礎架構2016年,谷歌宣布公司戰略從Mobile First轉向AI First,此后陸續發布Transformer、BERT、T5等重要的基礎模型(架構);2023年4月,谷歌將Google Brain和DeepMind合并為Google DeepMind,全力沖刺AI,8個月后發布Gemini。資料來源:飛哥說AI微信公眾號,澎湃新聞網,36氪官網,國元證券研究所20142017.06Google在在AI領域領域的發展時間線的發展時間線Google發布Trans
57、former,成為后來所有LLM的基礎框架;DeepMind提出RLHF的方法Google發布編碼器的BERT(最大3.5億參數),用于微調下游任務Google再發LaMDA(1370億參數),稱其具有“意識”DeepMind發布Gopher(2800億參數),加入LLM大戰Google發布FLAN,轉向decoder-only,提出Instruction TuningGoogle官宣基于LaMDA的BardGoogle表示將合并旗下兩個主要的人工智能研究部門Google Brain和DeepMind成立Google DeepMindGoogle發布GeminiDeepMind發布Sparro
58、w加入RLHF和Retrival(Google Search)2018.102019.10Google發布基于Transformer Decoder的T5,兼容BERT和GTP的下游任務Google收購DeepMind2021.102021.112022.012022.04Google發布PaLM(5400億參數,decoder-only),提出神奇的思維鏈2023.122023.042023.022022.092024.02Google發布Gemini1.5 36請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.3 Google技術積累深厚,模型發布節奏加速技術積累深厚,模
59、型發布節奏加速372大語言模型:大語言模型:PaLM 2實現輕量化,可在移動設備上離線運行實現輕量化,可在移動設備上離線運行PaLM2性能升級,部分測試結果超過GPT-4,輕量版可運行在移動設備上:2023年5月,谷歌發布PaLM2,對于具有思維鏈prompt或自洽性的MATH、GSM8K和MGSM基準評估,PaLM 2的部分結果超越了GPT-4。PaLM2包含四種尺寸的模型,其中最輕量的“壁虎”版本能在移動設備上快速運行(包括離線狀態)。谷歌將PaLM2融入辦公軟件、搜索引擎等產品:AI聊天機器人Bard被整合到谷歌的辦公軟件“全家桶”中,為Gmail、GoogleDocs、Sheets以及
60、Slides創造了名為”DuetAI”的辦公助手;Bard還被整合到谷歌搜索優化搜索答案。資料來源:科技最前線公眾號,國元證券研究所37圖:圖:PaLM 2技術報告技術報告圖:圖:PaLM 2包含四種尺寸的模型包含四種尺寸的模型資料來源:澎湃新聞官網,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.3 Google技術積累深厚,模型發布節奏加速技術積累深厚,模型發布節奏加速3多模態模型:最新發布多模態模型:最新發布Gemini 1.5,支持超長上下文窗口,支持超長上下文窗口2024年2月,谷歌發布最新一代MoE多模態模型Gemini 1.5。MoE(Mixtu
61、re of Experts)是一種混合模型,由多個子模型(即專家)組成,核心思想是使用一個門控網絡來決定每個數據應該被哪個模型訓練,從而減輕不同類型樣本之間的干擾。支持超長的上下文窗口,信息處理能力進一步增強。谷歌增加了Gemini 1.5 Pro的上下文窗口容量,并實現在生產中運行高達100萬個Token,遠超32k的Gemini 1.0、128k的GPT-4 Turbo、200k的Claude 2.1,這意味著Gemini 1.5 Pro可以一次性處理大量信息包括1小時的視頻、11小時的音頻、超過30000行代碼的代碼庫或超過700000個單詞。圖:圖:Gemini 1.5的上下文窗口長度
62、超過多個主流模型的上下文窗口長度超過多個主流模型資料來源:甲子光年公眾號,國元證券研究所圖:圖:Gemini 1.5 Pro與與Gemini 1.0系列比較系列比較資料來源:甲子光年公眾號,國元證券研究所38請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.3 Google技術積累深厚,模型發布節奏加速技術積累深厚,模型發布節奏加速4圖像生成模型:圖像生成模型:Imagen 2可生成高質量、更逼真的輸出可生成高質量、更逼真的輸出2023年12月,Google發布最新的圖像模型Imagen 2,在數據集和模型方面改善了文本到圖像工具經常遇到的許多問題,包括渲染逼真的手和人臉,以
63、及保持圖像沒有干擾視覺的偽影。Imagen 2基于擴散技術提供了高度的靈活性,使控制和調整圖像風格變得更加容易。通過提供參考風格的圖像并結合文字提示,使用者可以調節Imagen 2生成相同風格的新圖像;此外,還支持修補(inpainting)和擴圖(outpainting)等圖像編輯功能。圖:圖:Imagen 2通過使用參考圖片和文本提示更容易地控制輸出風格通過使用參考圖片和文本提示更容易地控制輸出風格資料來源:機器之心公眾號,國元證券研究所圖:圖:Imagen 2生成逼真手部和人臉的圖像生成逼真手部和人臉的圖像資料來源:機器之心公眾號,國元證券研究所39請務必閱讀正文之后的免責條款部分請務必
64、閱讀正文之后的免責條款部分2.3 Google技術積累深厚,模型發布節奏加速技術積累深厚,模型發布節奏加速405視頻生成模型:視頻生成模型:Genie可通過單張圖像生成交互式環境可通過單張圖像生成交互式環境2024年2月26日,谷歌發布Genie(Generative Interactive Environments),它是一個110億參數的基礎世界模型,可通過單張圖像提示生成可玩的交互式環境。谷歌認為Genie是實現通用智能體的基石之作,未來的AI智能體可以在新生成世界的無休止的curriculum中接受訓練,從Genie學到的潛在動作可以轉移到真實的人類設計的環境中。Genie包含三個關鍵
65、組件:1)潛在動作模型(Latent Action Model,LAM),用于推理每對幀之間的潛在動作;2)視頻分詞器(Tokenizer),用于將原始視頻幀轉換為離散token;3)動態模型,給定潛在動作和過去幀的token,用來預測視頻的下一幀。40圖:圖:Genie模型訓練過程模型訓練過程資料來源:機器之心公眾號,國元證券研究所請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.4 Anthropic與與OpenAI一脈相承,發布一脈相承,發布Claude大模型大模型1AI獨角獸獨角獸AnthropicAnthropic是一家人工智能創業公司,由OpenAI前研究副總裁達
66、里奧 阿莫迪(Dario Amodei)、大語言模型GPT-3論文的第一作者湯姆 布朗(Tom Brown)等人在2021年創立。2023年2月,獲得Google投資3億美元,Google持股10%;2023年3月,發布類似ChatGPT的大語言模型Claude;2023年7月,發布新一代Claude 2模型;2024年3月,發布Claude 3模型。圖:圖:Anthropic官網簡介官網簡介資料來源:Anthropic官網,國元證券研究所41請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分2.4 Anthropic與與OpenAI一脈相承,發布一脈相承,發布Claude大模型
67、大模型2多模態模型:多模態模型:Claude 3基準測試表現優秀基準測試表現優秀2024年3月,Anthropic發布最新的多模態模型Claude 3,該系列包含三個模型:Claude 3 Haiku、Claude 3 Sonnet和Claude 3Opus。其中,能力最強的Opus在多項基準測試中得分都超過了GPT-4和Gemini 1.0 Ultra,在數學、編程、多語言理解、視覺等多個維度樹立了新的行業基準。多模態方面,用戶可以上傳照片、圖表、文檔和其他類型的非結構化數據,讓AI分析和解答。圖:圖:Claude 3基準測試的表現結果基準測試的表現結果資料來源:機器之心公眾號,國元證券研究
68、所42請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分目錄目錄 第一部分:生成式第一部分:生成式AI快速發展,技術奇點有望到來快速發展,技術奇點有望到來 第二部分:技術創新百花齊放,海外巨頭引領潮流第二部分:技術創新百花齊放,海外巨頭引領潮流 第三部分:風險提示第三部分:風險提示43請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分風險提示風險提示44 人工智能產業政策落地不及預期的風險;人工智能相關技術迭代不及預期的風險;商業化落地進展低于預期;行業競爭加劇的風險。請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分45分析師聲明作者具有中國證券業協
69、會授予的證券投資咨詢執業資格或相當的專業勝任能力,以勤勉的職業態度,獨立、客觀地出具本報告。本人承諾報告所采用的數據均來自合規渠道,分析邏輯基于作者的職業操守和專業能力,本報告清晰準確地反映了本人的研究觀點并通過合理判斷得出結論,結論不受任何第三方的授意、影響。證券投資咨詢業務的說明根據中國證監會頒發的經營證券業務許可證(Z23834000),國元證券股份有限公司具備中國證監會核準的證券投資咨詢業務資格。證券投資咨詢業務是指取得監管部門頒發的相關資格的機構及其咨詢人員為證券投資者或客戶提供證券投資的相關信息、分析、預測或建議,并直接或間接收取服務費用的活動。證券研究報告是證券投資咨詢業務的一種
70、基本形式,指證券公司、證券投資咨詢機構對證券及證券相關產品的價值、市場走勢或者相關影響因素進行分析,形成證券估值、投資評級等投資分析意見,制作證券研究報告,并向客戶發布的行為。(1)公司評級定義(2)行業評級定義 買入 預計未來 6 個月內,股價漲跌幅優于上證指數 20%以上 推薦 預計未來 6 個月內,行業指數表現優于市場指數 10%以上 中性 預計未來 6 個月內,行業指數表現介于市場指數10%之間 回避 預計未來 6 個月內,行業指數表現劣于市場指數 10%以上 增持 預計未來 6 個月內,股價漲跌幅優于上證指數 5-20%之間 持有 預計未來 6 個月內,股價漲跌幅介于上證指數5%之間
71、 賣出 預計未來 6 個月內,股價漲跌幅劣于上證指數 5%以上 請務必閱讀正文之后的免責條款部分請務必閱讀正文之后的免責條款部分46一般性聲明本報告僅供國元證券股份有限公司(以下簡稱“本公司”)在中華人民共和國內地(香港、澳門、臺灣除外)發布,僅供本公司的客戶使用。本公司不會因接收人收到本報告而視其為客戶。若國元證券以外的金融機構或任何第三方機構發送本報告,則由該金融機構或第三方機構獨自為此發送行為負責。本報告不構成國元證券向發送本報告的金融機構或第三方機構之客戶提供的投資建議,國元證券及其員工亦不為上述金融機構或第三方機構之客戶因使用本報告或報告載述的內容引起的直接或連帶損失承擔任何責任。本
72、報告是基于本公司認為可靠的已公開信息,但本公司不保證該等信息的準確性或完整性。本報告所載的信息、資料、分析工具、意見及推測只提供給客戶作參考之用,并非作為或被視為出售或購買證券或其他投資標的的投資建議或要約邀請。本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。在不同時期,本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司建議客戶應考慮本報告的任何意見或建議是否符合其特定狀況,以及(若有必要)咨詢獨立投資顧問。在法律許可的情況下,本公司及其所屬關聯機構可能會持有本報告中所提到的公司所發行的證券頭寸并進行交易,還可能為這些公司提供或爭取投資銀行業務服務或其他服務。請務必閱讀正
73、文之后的免責條款部分請務必閱讀正文之后的免責條款部分47國元證券研究所免責條款:本報告是為特定客戶和其他專業人士提供的參考資料。文中所有內容均代表個人觀點。本公司力求報告內容的準確可靠,但并不對報告內容及所引用資料的準確性和完整性作出任何承諾和保證。本公司不會承擔因使用本報告而產生的法律責任。本報告版權歸國元證券所有,未經授權不得復印、轉發或向特定讀者群以外的人士傳閱,如需引用或轉載本報告,務必與本公司研究所聯系。網址:合肥合肥上海上海地址:安徽省合肥市梅山路18號安徽國際金融中心A座國元證券地址:上海市浦東新區民生路1199號證大五道口廣場16樓國元證券郵編:230000郵編:200135傳真:(0551)62207952傳真:(021)68869125電話:(021)51097188