1、 計算機計算機|證券研究報告證券研究報告 行業深度行業深度 2023 年年 12 月月 28 日日 強于大市強于大市 相關研究報告相關研究報告 口岸信息化行業點評口岸信息化行業點評20231108 數據要素行業事件點評數據要素行業事件點評20231025 自動駕駛行業事件點評自動駕駛行業事件點評20231024 中銀國際證券股份有限公司中銀國際證券股份有限公司 具備證券投資咨詢業務資格具備證券投資咨詢業務資格 計算機計算機 證券分析師:楊思睿證券分析師:楊思睿(8610)66229321 證券投資咨詢業務證書編號:S1300518090001 聯系人:劉桐彤聯系人:劉桐彤(8610)83949
2、543 一般證券業務證書編號:S1300122030039 智能體專題報告之一智能體專題報告之一 智能體打開智駕與機器人的星辰大海 具身智能由智能體(具身智能由智能體(AI agent)和物理實體(本體)組成。智能體)和物理實體(本體)組成。智能體是自主完是自主完成設定目標的代理成設定目標的代理,能迭代學習與環境能迭代學習與環境互動互動。智能體。智能體形式包括形式包括自動駕駛汽車、自動駕駛汽車、機器人等。機器人等。大模型大模型 AI 算力投建之下,智能體有望成為消化算力的殺手級應用。算力投建之下,智能體有望成為消化算力的殺手級應用。智能體智能體賦能之下賦能之下,人工代碼量,人工代碼量能大幅減少
3、能大幅減少并對未預先編程的場景進行操作。并對未預先編程的場景進行操作。從產業落地進程看,從產業落地進程看,我們判斷我們判斷未來未來 1-3 年內自動駕駛有望先行落地,搭載智年內自動駕駛有望先行落地,搭載智能體的機器人則在能體的機器人則在 5 年期年期具備商業化看點。具備商業化看點。建議關注整體解決方案和產業鏈建議關注整體解決方案和產業鏈廠商投資機會。廠商投資機會。支撐評級的要點支撐評級的要點 智能體能夠以自動駕駛汽車、機器人等多種形式落地,或將誕生生成式智能體能夠以自動駕駛汽車、機器人等多種形式落地,或將誕生生成式AI 殺手級應用。殺手級應用。智能體(AI Agents)是一個可以通過行動能力
4、自主完成設定的目標的代理,能夠不斷迭代學習與環境相互適應。智能體與“本體”耦合后,即形成具身智能。根據不同的具身方法,智能體能夠以自動駕駛汽車、機器人等多種形式表現。生成式 AI 經歷大模型打磨成熟階段之后,算力的消化需要市場空間廣闊的殺手級應用,智能體有望成為這樣的典型應用落地場景。智能體與物理實體結合,能夠大大減少智能體與物理實體結合,能夠大大減少人工人工代碼量并且對未代碼量并且對未預先編程的預先編程的場景場景進行操作進行操作。區別于 CV、NLP 等傳統深度學習模型,與“本體”耦合后的智能體不依靠被動數據投喂,能夠實現:(1)擺脫傳統機器人依靠工程師代碼進行控制的模式,以微軟ChatGP
5、T for Robotics:Design Principles and Model Abilities為例,操控者只需準備好機器人底層的函數庫,并將任務目標告訴 chatgpt,chatgpt 即可自動完成代碼并指揮具身智能機器人行動。(2)對從未見過的對象或場景執行操作任務。依托大模型的涌現能力,具身的智能體能夠從原始訓練數據中自動學習并發現新的、更高層次的特征和模式,在僅僅依靠網絡數據知識的情況下就可以完成沒有預先編程的新場景。自動駕駛:端到端大模型存在平臺級自動駕駛:端到端大模型存在平臺級 Drive GPT 機會機會。自動駕駛落地進程快于機器人,未來 1-3 年內 L4、L5 級別的
6、自動駕駛技術有望實現,而搭載智能體的機器人則會在未來 5-10 年出現。特斯拉 FSD V12 采用端到端訓練方法,與 Chatgpt 訓練模式類似。相比 V11,V12 代碼量減少 99%。同時,端到端相比分模塊的技術范式具備更高性能范式。當端到端系統達到與現有技術水平相當的時間點時,將會快速超越傳統技術棧。通過對比特斯拉 FSD 和 Waymo,我們認為端到端技術奇點已經臨近。機器人:生成式大模型有望加快機器人:生成式大模型有望加快底層通用底層通用平臺建設,打造平臺建設,打造 Robot GPT 需需要大模型要大模型模擬數據支持模擬數據支持。目前針對機器人的不同技能仍需要不同的大模型。而機
7、器人底層平臺發展相對落后的原因在于多數研究者仍使用相對落后的 ResNet18 深度學習架構,而非在生成模型的巨大數據集上進行模型訓練。但隨著大模型的迅速發展,Robot GPT 進程有望加快。打造 Robot GPT 的關鍵是解決數據稀缺問題。相比真實數據,仿真數據同樣具備完善的數據分布,涵蓋 common case 和 corner case,并且能夠以較低成本獲取數據,從而規避數據隱私和安全問題。建議關注建議關注自動駕駛平臺級機會以及工業仿真環節自動駕駛平臺級機會以及工業仿真環節。自動駕駛層面,端到端技術奇點臨近,建議關注商湯科技(UniAD 端到端大模型);機器人層面,仿真數據有望加快
8、 Robot GPT 迭代進程,建議關注中科曙光(新一代工業仿真云平臺“力源 久宇”)、索辰科技(CAE 仿真軟件)、軟通動力(iSSMeta 數字仿真推演平臺)。評級面臨的主要風險評級面臨的主要風險 技術迭代不及預期;數據采集不及預期。2023 年 12 月 28 日 智能體專題報告之一 2 目錄目錄 智能體:自動駕駛汽車與人形機器人的智能體:自動駕駛汽車與人形機器人的智能大腦智能大腦.4 智能體不依靠被動數據投喂,具備自主學習的能力.4 智能體帶動機器人實現升維進階.5 藍海市場前景廣闊,產業端加速落地藍海市場前景廣闊,產業端加速落地.8 藍海市場前景廣闊,5 年市場規模復合增速有望超 5
9、0%.8 產業端加速落地,GEMINI有望接入機器人.9 端到端大模型與數據模擬兩大方向值得關注端到端大模型與數據模擬兩大方向值得關注.13 端到端大模型有望打造自動駕駛領域 DRIVE GPT.13 機器人:海量數據模擬需求有望釋放.17 投資建議投資建議.23 風險提示風險提示.24 pWgUdYoWiVvY9UuWsUmV8O8Q7NoMqQnPoNiNmNnPfQtRxO9PmNpPvPpPsMvPnNpQ2023 年 12 月 28 日 智能體專題報告之一 3 圖表目錄圖表目錄 圖表圖表 1.智能體不斷迭代學習以與環境相互適應智能體不斷迭代學習以與環境相互適應.4 圖表圖表 2.智能
10、體和物理實體耦合后形成具身智能智能體和物理實體耦合后形成具身智能.4 圖表圖表 3.具身的智能體以第一視角進行學習具身的智能體以第一視角進行學習.5 圖表圖表 4.搭載智能體后的機器人無需進行大量編程搭載智能體后的機器人無需進行大量編程.5 圖表圖表 5.ChatGPT 可自動完成代碼并應用在具身智能機器人上可自動完成代碼并應用在具身智能機器人上.6 圖表圖表 6.搭載智能體后機器人涌現能力顯著提搭載智能體后機器人涌現能力顯著提升升.6 圖表圖表 7.RT-2 涌現成功率達涌現成功率達 60%.7 圖表圖表 8.2023 年年-2028 年人型機器人市場規模及增速年人型機器人市場規模及增速.8
11、 圖表圖表 9.智能體相關政策智能體相關政策.9 圖表圖表 10.VIMA 在在 NVIDIA AI 上運行上運行.9 圖表圖表 11.搭載搭載 PaLM-E 的機器人無需對場景進行預處理的機器人無需對場景進行預處理.10 圖表圖表 12.Gemini 性能顯著提升性能顯著提升.11 圖表圖表 13.千問大模型遠程指揮機器人工作千問大模型遠程指揮機器人工作.11 圖表圖表 14.國內首款開源鴻蒙機器人發布國內首款開源鴻蒙機器人發布.12 圖表圖表 15.經典范式和端到端范式之間的差異經典范式和端到端范式之間的差異.13 圖表圖表 16.特斯拉特斯拉 FSD v12 神經網絡架構神經網絡架構.1
12、4 圖表圖表 17.特斯拉特斯拉 FSD v11 神經網絡架構神經網絡架構.14 圖表圖表 18.特斯拉影子模式示意圖特斯拉影子模式示意圖.15 圖表圖表 19.特斯拉影子模式加速數據采集特斯拉影子模式加速數據采集.16 圖表圖表 20.端到端系統端到端系統有望超越現有范式有望超越現有范式.16 圖表圖表 21.特斯拉路線用時僅為特斯拉路線用時僅為 Waymo 一半一半.17 圖表圖表 22.UniAD 網絡架構網絡架構.17 圖表圖表 23.主流機器人智能體對比主流機器人智能體對比.18 圖表圖表 24.PaLM-E 在在規劃方面優勢突出在在規劃方面優勢突出.18 圖表圖表 25.RT-2
13、架構架構.19 圖表圖表 26.LM-Nav 架構架構.20 圖表圖表 27.Robot GPT 架構架構.20 圖表圖表 28.2020 年以來大模型發展歷程年以來大模型發展歷程.21 圖表圖表 29.VoxPoser 的現實運用場景的現實運用場景.21 圖表圖表 30.大模型參數與訓練數據規模呈正相關大模型參數與訓練數據規模呈正相關.22 圖表圖表 31.合成數據將成為人工智能中使用的主要數據形式合成數據將成為人工智能中使用的主要數據形式.22 2023 年 12 月 28 日 智能體專題報告之一 4 智能體:智能體:自動駕駛自動駕駛汽車汽車與人形機器人的與人形機器人的智能大腦智能大腦 智
14、能體不依靠被動數據投喂智能體不依靠被動數據投喂,具備自主學習的能力具備自主學習的能力 智能體智能體是是自主完成設定的目標的代理自主完成設定的目標的代理,能夠不斷迭代學習以與環境相互適應。能夠不斷迭代學習以與環境相互適應。根據 MoPaaS 創始人和 CEO 魯為民博士在大語言模型時代的智能體(I):什么是智能體?一文中的定義,智能體(AI Agents 或 Agents)是一個可以通過行動能力自主完成設定的目標的代理。智能體具備一些類似人的智能能力和行為,比如學習、推理、決策和執行能力。智能體具備感知、觀測、決策和執行四大模塊,通過反饋來感知環境及其動態變化,并將行動策略反饋作用于環境,以實現
15、不斷迭代學習與環境相互適應。圖表圖表 1.智能體智能體不斷迭代學習以與環境相互適應不斷迭代學習以與環境相互適應 資料來源:魯為民大語言模型時代的智能體(I):什么是智能體?,中銀證券 自動駕駛汽車、人形機器人都可成為智能體的載體。自動駕駛汽車、人形機器人都可成為智能體的載體。根據智元機器人 CTO、首席架構師稚暉君的定義,智能體與“本體”耦合后,即形成具備物理實體的、且能夠在復雜環境中執行任務的智能系統。其中本體作為實際的執行者(通常是具有物理實體的機器人),在物理或者虛擬世界進行感知和任務執行;而智能體則承擔智能核心的作用,負責感知、理解、決策、控制等工作。盧策吾教授在機器之心 AI 科技年
16、會上發表的具身智能是通往 AGI 值得探索的方向中提到,智能體通過感知器和執行器與環境進行交互,能夠實現獲取信息、理解問題等功能,并根據環境的變化做出相應的決策和行動。根據選擇的不同具身方法,智能體能夠以機器人、自動駕駛汽車等多種形式表現。圖表圖表 2.智能體和物理實體耦合后形成具身智能智能體和物理實體耦合后形成具身智能 資料來源:盧策吾具身智能是通往AGI值得探索的方向,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 5 智能體相比傳統智能體相比傳統深度學習模型深度學習模型具備自主學習的能力具備自主學習的能力。CV、NLP 等傳統深度學習模型主要通過第三視角以互聯網圖像、視頻
17、或文本等數據集進行學習,其訓練主要依靠被動數據投喂。而具身的智能體以第一視角進行感知,并與環境交互,不依靠被動數據投喂,具備主動學習的能力以及較強的泛化性。1963 年,麻省理工學院教授理查德 赫爾德通過對比實驗發現:當貓的腳被綁住放進盒子里時,即使其能正常觀察環境,但并不能發育出正常的視覺能力;而另一只可以自由行走的貓在完全相同的環境下,則發育出了正常的視覺能力,因而他認為只有“具身”的訓練,才能真正學習與理解外部的環境與信息。圖表圖表 3.具身具身的智能體以第一視角進行學習的智能體以第一視角進行學習 資料來源:盧策吾具身智能是通往AGI值得探索的方向,中銀證券 智能體帶動機器人實現升維進階
18、智能體帶動機器人實現升維進階 由由智能智能體賦能的機器人以任務完成為導向,體賦能的機器人以任務完成為導向,相比傳統機器人大大減少了編程的需要。相比傳統機器人大大減少了編程的需要。傳統模式下,機器人以程序執行為導向,通常需要經過任務定義、將任務分解為動作、編寫程序以及執行任務等流程。工程師需要構建高低級指令代碼,并且隨時更改代碼以修正機器人行動,整個過程耗時長且成本昂貴。而搭載智能體的機器人以任務目標為導向,不僅僅是機械地完成程序。具身的智能體可以根據環境變化,對行動細節進行實時修正,其自主學習能力能夠消除在特定條件下為特定任務反復編程的需要。圖表圖表 4.搭載智能體后的機器人無需進行大量編程搭
19、載智能體后的機器人無需進行大量編程 資料來源:MicrosoftChatGPT for Robotics:Design Principles and Model Abilities,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 6 微軟在ChatGPT for Robotics:Design Principles and Model Abilities中提出,大語言模型(LLM)能給機器人提供常識,非工程師也可對機器人進行控制。操控者只需準備好機器人底層的函數庫,并對其進行描述。將任務目標告訴 ChatGPT 后,ChatGPT 即可自動完成代碼并應用在具身智能機器人上。以居
20、家機器人為例,設計者只需寫出機器人進行物品定位、移動到某一位置、抓取物體以及做飯的函數庫,然后告知 ChatGPT 相應函數的作用以及要到達的目標,ChatGPT 就會自動寫出相應代碼。圖表圖表 5.ChatGPT 可自動完成代碼并應用在具身智能機器人上可自動完成代碼并應用在具身智能機器人上 資料來源:MicrosoftChatGPT for Robotics:Design Principles and Model Abilities,中銀證券 搭載智能體后機器人涌現能力顯著提升,搭載智能體后機器人涌現能力顯著提升,可可完成完成沒有預先編程的新場景沒有預先編程的新場景。7 月谷歌 DeepMi
21、nd 推出機器人模型Robotics Transformer 2(RT-2)。RT-2以視覺-語言模型(VLMs)為基礎,以Pathways Language and Image model(PaLI-X)和 Pathways Language model Embodied(PaLM-E)為支柱,通過輸入圖像生成一系列自然語言文本的標記。RT-2 可用于執行視覺問答、圖像字幕或對象識別等任務。RT-2展現了較好的涌現能力,即從原始訓練數據中自動學習并發現新的、更高層次的特征和模式的能力。圖表圖表 6.搭載智能體后機器人涌現能力顯著提升搭載智能體后機器人涌現能力顯著提升 資料來源:Aarohi
22、Srivastava,et al.Beyond the Imitation Game:Quantifying and extrapolating the capabilities of language models,中銀證券 在谷歌具身智能試驗中,機器人對從未見過的對象或場景上執行操作任務,在僅依據網絡數據知識的情況下,機器人可完成諸如“拿起即將從桌上掉下來的袋子”或“將香蕉移動到 2 加 1 的和”等任務。實驗結果顯示,RT-2 對于未曾見過的情景的平均成功率達 60%,相比 RT-1 提升了 3 倍以上。2023 年 12 月 28 日 智能體專題報告之一 7 圖表圖表 7.RT-2 涌
23、現成功率達涌現成功率達 60%資料來源:Google DeepMind,RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 8 藍海市場前景廣闊,產業端加速落地藍海市場前景廣闊,產業端加速落地 藍海市場前景廣闊藍海市場前景廣闊,5 年市場規模復合增速有望超年市場規模復合增速有望超 50%具身智能體市場空間廣闊,具身智能體市場空間廣闊,5 年市場規模年市場規模 CAGR 有望超有望超 50%。智能體目前仍處于發展初期階段,其與機器人
24、、自動駕駛、智能傳感器和智能設備、增強現實(AR)和虛擬現實(VR)等多個行業相關,市場空間廣闊。以人形機器人市場規模進行參考,據 Markets and Markets 測算,到 2028 年全球人形機器人市場規模將達到 138 億美元,復合增長率預計為 50.2%。圖表圖表 8.2023 年年-2028 年人型機器人市場規模及增速年人型機器人市場規模及增速 資料來源:Markets and Markets,中銀證券 政策密集催化。政策密集催化。2023 年以來,多項智能體相關政策陸續發布。5 月,北京市發布北京市促進通用人工智能創新發展的若干措施(2023-2025 年)(征求意見稿),提
25、出要探索具身智能、通用智能體和類腦智能等通用人工智能新路徑。同期,上海發布上海市推動制造業高質量發展三年行動計劃(2023-2025 年),提出要瞄準人工智能技術前沿,建設國際算法創新基地,加快人形機器人創新發展。湖北、深圳、廣東等省市紛紛加快布局,促進產業高速發展。政策帶動下,智能體產業進入快車道。2023 年 12 月 28 日 智能體專題報告之一 9 圖表圖表 9.智能體智能體相關政策相關政策 時間時間 政策政策 主要內容主要內容 2023/5/19 上海市推動制造業高質量發展三年行動計劃(2023-2025 年)打造智能網聯汽車、智能機器人、智能穿戴、虛擬顯示等終端品牌;瞄準人工智能技
26、術前沿,建設國際算法創新基地,加快人形機器人創新發展。2023/5/22 湖北省數字經濟高質量發展若干政策措施 鼓勵省內企業聯合科研院所面向未來產業,開展 6G、人形機器人、人工智能等領域原創性研發,對相關企業享受研發費用補助,單家最高可達 100 萬元。對總部設在湖北并從事關鍵軟件獨立研發的企業,按規補貼研發投入,每家企業每年最高補貼 500 萬元。2023/5/30 北京市促進通用人工智能創新發展的若干措施 提出探索具身智能、通用智能體和類腦智能等通用人工智能新路徑,包括推動具身智能系統研究及應用,突破機器人在開放環境、泛化場景、連續任務等復雜條件下的感知、認知、決策技術。2023/6/1
27、 深圳市加快推動人工智能高質量發展高水平應用行動方(2023-2024)開展通用型具身智能機器人的研發和應用。實施核心技術攻關載體扶持計劃,支持科研機構與企業共建 5 家以上人工智能聯合實驗室,加快組建廣東省人形機器人制造業創新中心。發揮粵港澳大灣區制造業優勢,開展人形機器人規?;瘧?。2023/6/28 北京市機器人產業創新發展行動方案(20232025 年)到 2025 年,培育 100 種高技術高附加值機器人產品、100 種具有全國推廣價值的應用場景,萬人機器人擁有量達到世界領先水平。全市機器人核心產業收入達到 300 億元以上。對標國際領先人形機器人產品,支持企業和高校院所開展人形機器
28、人整機產品、關鍵零部件攻關和工程化,加快建設北京市人形機器人產業創新中心。2023/8/4 成都市加快大模型創新應用推進人工智能產業高質量發展的若干措施 推動類腦芯片與系統、腦控設備、智能假體等研發和產業化,加快環境感知、AI 芯片、運動控制、操作系統等人形機器人核心技術模塊布局。2023/11/13 廣東省人民政府關于加快建設通用人工智能產業創新引領地的實施意見 通過研發自主算力芯片及工具鏈,構建完善的自主可控人工智能軟硬件生態;通過大模型關鍵技術、前沿及共性關鍵技術、安全可信技術攻關,推動廣東通用人工智能產業發展;通過人工智能人才培育等舉措,為廣東人工智能發展提供有利發展環境。資料來源:上
29、海市、北京市、深圳市、廣東省、湖北省人民政府,成都市經濟和信息化局,中銀證券 產業端加速落地,產業端加速落地,Gemini 有望接入機器人有望接入機器人 英偉達推出多模態具身智能系統英偉達推出多模態具身智能系統 Nvidia VIMA。英偉達創始人黃仁勛在 ITF World 2023 半導體大會上表示,AI 下一個浪潮將是“具身智能”,具身智能將開啟新的應用和市場,如智能機器人、智能醫療、智能教育等。目前英偉達已推出多模態具身智能系統 Nvidia VIMA,并在 NVIDIA AI 上運行。Nvidia VIMA 能在視覺文本提示的指導下,執行復雜任務,如在虛擬環境中搭建樂高積木、在真實環
30、境中操作機器人手臂等。圖表圖表 10.VIMA 在在 NVIDIA AI 上運行上運行 資料來源:英偉達官網,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 10 谷歌打造谷歌打造“通才通才”AI 模型模型 PaLM-E。3 月,谷歌聯合柏林工業大學團隊發布 PaLM-E(Pathways Language Model with Embodied),參數量高達 5620 億。PaLM-E 是 PaLM-540B 語言模型與 ViT-22B 視覺Transformer 模型的結合,它基于谷歌現有的“PaLM”大語言模型(類似于 ChatGPT 背后的技術)。谷歌通過添加感官信息和
31、機器人控制,使 PaLM“具身化”。PaLM-E 可以連續觀察圖像信息或傳感器數據,并將它們編碼為一系列與語言標記大小相同的向量,使得模型以與處理語言相同的方式“理解”感官信息。同時,PaLM-E 還借鑒了谷歌之前在 ViT-22B 視覺 Transformer 模型上的工作。ViT-22B接受過各類視覺任務的訓練,如圖像分類、對象檢測、語義分割和圖像字幕。作為多模態具身視覺語言模型(VLM),PaLM-E 不僅可以理解圖像,還能理解、生成語言,還可以執行各種復雜的機器人指令而無需重新訓練。當被要求執行“把抽屜里的薯片拿給我”的任務的時候,PaLM-E 首先對機器人相機的數據進行分析,而非對場
32、景進行預處理(消除了人類預處理或注釋數據的需要),以實現更自主的機器人控制。隨后 PaLM-E 引導機器人從廚房取出薯片袋,當研究人員從機器人拿走薯片后,機器人仍然能找到薯片并再次抓取它們。圖表圖表 11.搭載搭載 PaLM-E 的機器人無需對場景的機器人無需對場景進行預處理進行預處理 資料來源:36氪谷歌發布史上“最強大腦”PaLM-E,機器人從此成了多面手,中銀證券 Gemini 具備強泛化能力,有望成為機器人智能體。具備強泛化能力,有望成為機器人智能體。12 月 6 日,谷歌原生多模態大模型 Gemini 發布。Gemini 可泛化并無縫理解、操作和組合不同類型的信息,包括文本、代碼、音
33、頻、圖像和視頻。它包括三種量級:能力最強的 Gemini Ultra,適用于多任務的 Gemini Pro 以及適用于特定任務和端側的 Gemini Nano。其中 Ultra 版可用于大型數據中心等,屬于處理高復雜度任務的模型;Pro 版則用于各種擴展任務,屬于日常使用模型,目前已搭載于谷歌的對話機器人 Bard 中;Nano 版則是應用于智能手機等移動設備終端上的模型。與 BERT 等模型相比,Gemini 具有更多的參數和更深的網絡結構,此外 Gemini 還采用了更先進的訓練方法,例如知識蒸餾和自監督學習等,模型泛化能力顯著提升。在 GLUE 和 SQuAD 等多項自然語言處理基測試中
34、,Gemini 分別取得了 94.1%和 93.3%的準確率。谷歌人工智能高管哈薩比斯在接受雜志 Wired 采訪時表示,谷歌 DeepMind 已經在研究如何將 Gemini 與機器人技術結合起來,與世界進行物理互動。2023 年 12 月 28 日 智能體專題報告之一 11 圖表圖表 12.Gemini 性能顯著提升性能顯著提升 資料來源:Dan Hendrycks官方Twitter,中銀證券 阿里千問大模型有望接入工業機器人。阿里千問大模型有望接入工業機器人。在第六屆數字中國建設峰會上,阿里巴巴董事會主席兼 CEO、阿里云智能集團 CEO 張勇透露:阿里云工程師正在實驗將千問大模型接入工
35、業機器人。接入千問大模型后,在釘釘對話框輸入人類語言,操作者即可遠程指揮機器人工作。通過釘釘對話框向機器人發送“我渴了,找點東西喝吧?!钡闹噶詈?,千問大模型在后臺自動編寫代碼發給機器人。機器人對周邊環境進行識別,在找到水后,自動完成移動、抓取、配送等一系列動作,并順利遞送給工程師。圖表圖表 13.千問大模型千問大模型遠程指揮機器人工作遠程指揮機器人工作 資料來源:阿里云阿里云物聯網工程師 正在實驗將千問大模型接入工業機器人,中銀證券 國內首款開源鴻蒙機器人發布。國內首款開源鴻蒙機器人發布。12 月 5 日,國內首款可跳躍的開源鴻蒙人形機器人在深圳發布,該款機器人人形機器人 KUAVO(夸父)由
36、樂聚自主研發,重量約 45kg,全身自由度 26 個,步速最高可達 4.6km/h,快速連續跳躍高度超過 20cm,是國內首款可跳躍、可適應多地形行走、并且可實現量產的開源鴻蒙人形機器人。目前,夸父已進入全面量產階段,并在科研教育和特種作業領域率先實現商業化落地。樂聚機器人也有望因此成為國內首家實現大機器人量產交付單位。2023 年 12 月 28 日 智能體專題報告之一 12 圖表圖表 14.國內首款開源鴻蒙機器人發布國內首款開源鴻蒙機器人發布 資料來源:深圳社會科學網國內首款可跳躍的開源鴻蒙人形機器人在深發布,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 13 端到端大模
37、型與數據模擬兩大方向值得關注端到端大模型與數據模擬兩大方向值得關注 自動駕駛智能體短期內有望快速落地,機器人智能體接力打開中長期想象空間。自動駕駛智能體短期內有望快速落地,機器人智能體接力打開中長期想象空間。根據北京智源人工智能研究院院長、北大多媒體信息處理國家重點實驗室主任黃鐵軍在 2023 STIC 科技創變者大會上的演講,隨著技術迭代速度加快,1-3 年內 L4、L5 級別的自動駕駛技術有望實現,而搭載智能體的機器人則會在未來 5-10 年出現,并對制造業進行顛覆與替代,同時進入普通家庭 To C 場景。我們認為短期內,自動駕駛有望成為具身智能體的首個落地方向,端到端大模型技術有望快速超
38、越現有范式,奇點已經臨近;中長期生成式模型的快速迭代有望加快 Robot RPT 進程,產業存在大量模擬數據需求。端到端大模型有望打造自動駕駛領域端到端大模型有望打造自動駕駛領域 Drive GPT 特斯拉特斯拉 FSD V12 采用端到端訓練方法,與采用端到端訓練方法,與 ChatGPT 訓練模式類似。訓練模式類似。ChatGPT 采用端到端的訓練方法,其關鍵基礎是生成式大規模語言模型。ChatGPT 以生成式的自監督學習為基礎,在大量的未標注文本數據上訓練模型,使其能夠學習語言的普遍規律和語言結構。而特斯拉 FSD V12 同樣采用端到端訓練方法,與 ChatGPT 技術路徑一致。在常規自
39、動駕駛系統開發中,探測、跟蹤、靜態環境建圖、高精地圖定位等子模塊分別由不同的團隊分擔,各團隊負責各自模塊的結果輸出,因此各個模塊之間存在明顯的界限和區隔,使得模塊容易存在局部最優,而非全局最優的情況。而端到端的設計則是將各個模塊用可微分的方式連接起來,使任務得到了聯合和全局優化。除此之外,端到端前期不需海量代碼或提前設計規則,只需不斷輸入人類駕駛數據,系統就能不斷更新迭代。圖表圖表 15.經典范式和端到端范式之間的經典范式和端到端范式之間的差異差異 資料來源:Li Chen,et al.End-to-end Autonomous Driving:Challenges and Frontiers
40、,中銀證券 注:虛線箭頭表示在傳統范式下,每個組件的輸出直接輸入到后續單元;實線箭頭表示端到端模式下,任務從感知輸入到決策模塊后,繼續反向傳播以實現全局優化 2023 年 12 月 28 日 智能體專題報告之一 14 FSD V12 神經網絡取代傳統分模塊設計。神經網絡取代傳統分模塊設計。特斯拉宣布已開始向員工推出完全自動駕駛(FSD)V12版本。特斯拉 FSD V12 使用全球各地數百萬特斯拉車身視頻作為訓練材料來模仿人類司機的駕駛決策,采用“光子進入,控制輸出(photon in,controls out)”。目前常見自動駕駛系統多采用分模塊設計,即分為感知、決策、控制三個模塊。車輛通過傳
41、感器感知周遭環境,確定車輛位置、速度、加速度,并根據識別出來的語義進行行駛路線的規劃和橫縱向的決策,最后通過轉向和制動機構控制車輛行駛,各任務內部采用各自的算法模型,感知、決策與控制之間界限明確。而特斯拉將規劃和控制由代碼改成了神經網絡形式,與感知層的神經網絡合并成了一個大網絡,僅利用一套神經網絡就能處理所有輸入信號,并輸出駕駛決策。圖表圖表 16.特斯拉特斯拉 FSD v12 神經網絡架構神經網絡架構 資料來源:2022 Tesla AI Day視頻,中銀證券 FSD V12 代碼量相比代碼量相比 V11 減少減少 99%。相比 V11,V12 最主要的更新在于其 99%決策都是由神經網絡給
42、出,這一更新減少了車機系統對代碼的依賴,使其更加接近人類司機的決策過程。這是特斯拉首次放棄代碼,使用神經網絡進行車輛控制。與 V11 相比,V11 使用超過 30 萬行代碼,依靠工程師硬核編碼對車輛進行控制。而 FSD V12 則可通過神經網絡控制轉向、加速和制動。目前,FSD V12的 C+代碼只有 2000 行。圖表圖表 17.特斯拉特斯拉 FSD v11 神經網絡架構神經網絡架構 資料來源:2021 Tesla AI Day視頻,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 15 具備核心數據積累,影子模式有望支撐神經網絡加速訓練。具備核心數據積累,影子模式有望支撐神經
43、網絡加速訓練。特斯拉影子模式的運作方式是在有人駕駛狀態下,運行自動駕駛系統和傳感器,系統雖不參與車輛控制,但仍持續進行模擬決策,并把決策與駕駛員行為進行對比。兩者不一致時,系統將場景判定為“極端工況”,進而觸發數據回傳。因而特斯拉的使用用戶越多,收集的數據就越多。圖表圖表 18.特斯拉影子模式示意圖特斯拉影子模式示意圖 資料來源:2019 Tesla Autonomy Day視頻,中銀證券 大模型的訓練依賴海量數據的提供,提供的數據越多,訓練質量就越優異。大模型的訓練依賴海量數據的提供,提供的數據越多,訓練質量就越優異。在特斯拉 2023 年股東大會上,馬斯克透露 FSD 累計行駛里程已經接近
44、 2 億英里。據 Lex Friedman 發布的數據顯示,截至 2020 年 1 月 16 日,特斯拉的所有汽車行駛里程達到 191 億英里,其中自動駕駛里程為 22 億英里。相比之下,同時期 Waymo 路測里程約為 1000 萬英里,特斯拉于數據儲備方面具明顯優勢。馬斯克發現,當輸入超過 100 萬個視頻后,基于神經網絡的自動駕駛系統開始表現良好。目前 FSD V12 已使用包含 1000 萬個視頻的數據集。并且特斯拉在全球各地近 200 萬輛的車隊,每天也會提供約 1600億幀視頻用于訓練。特斯拉預計,未來用于訓練的視頻將達到數十億幀。2023 年 12 月 28 日 智能體專題報告之
45、一 16 圖表圖表 19.特斯拉影子模式加速數據采集特斯拉影子模式加速數據采集 資料來源:TeslaratiTeslas FSD Beta program has traveled more autonomous miles than any rival,中銀證券 奇點臨近,端到端系統有望奇點臨近,端到端系統有望超越超越現有范式?,F有范式。根據小鵬 XPILOT 總監 Patrick Liu 在 CVPR 2023 上的演講,分模塊的方式允許開發人員以最少的努力快速工作,但通常會導致自動駕駛性能上限為 80%,而端到端以全局最優為導向,相比傳統分模塊的范式具備更高上限。然而在端到端系統起步初期
46、,需要重復多次才能不斷突破性能天花板。從圖中我們可以看出,當端到端系統達到現有技術水平的時間點后,將會快速超越技術棧。圖表圖表 20.端到端系統端到端系統有望有望超越超越現有范式現有范式 資料來源:Patrick Langechuan Lius talk at CVPR23 E2EAD Workshop,中銀證券 在 8 月 26 日馬斯克 45 分鐘直播試駕中,FSD Beta V12 在面對之前從未見過的建筑、道路標志時能夠進行識別,并輕松繞過障礙物。對于同樣未經過編程的環形交叉路口概念,FSD V12 順利完成轉彎行駛。只需輸入目的地地址,FSD V12 就可自動行駛到達目的地,并將車停
47、到合適的位置。YouTube博主 CallasEV將特斯拉 FSD與 Waymo 進行了長距離駕駛對比。從同一地點出發到同一終點,Waymo全程用時 54 分 42 秒,而特斯拉的路線用時僅為 26 分 27 秒,用時不到 Waymo 的一半。2023 年 12 月 28 日 智能體專題報告之一 17 圖表圖表 21.特斯拉路線用時僅為特斯拉路線用時僅為 Waymo 一半一半 資料來源:Youtube頻道CallasEV,中銀證券 UniAD 成為國內首個端到端自動駕駛大模型。成為國內首個端到端自動駕駛大模型。6 月 21 日,全球人工智能和計算機視覺領域頂級國際會議 CVPR2023 宣布由
48、上海人工智能實驗室、武漢大學及商湯科技聯合發表的論文以路徑規劃為導向的自動駕駛(Planning-oriented Autonomous Driving,UniAD)獲最佳論文獎。在 UniAD 中,研究人員首次將感知、預測和規劃等三大類主任務、六小類子任務(目標檢測、目標跟蹤、場景建圖、軌跡預測、柵格預測和路徑規劃)整合到一個基于 Transformer 的端到端網絡框架下,實現了全棧關鍵任務駕駛通用模型。在 nuScenes 真實場景數據集下,UniAD 的所有任務均達到領域最佳性能(State-of-the-art,SOTA),尤其是預測和規劃效果方面。其中,多目標跟蹤準確率超越 SOT
49、A 20%,車道線預測準確率提升 30%,預測運動位移和規劃的誤差則分別降低 38%和 28%。圖表圖表 22.UniAD 網絡架網絡架構構 資料來源:Yihan Hu,et al.Planning-oriented Autonomous Driving,中銀證券 機器人:機器人:海量數據模擬需求有望釋放海量數據模擬需求有望釋放 機器人機器人領域尚未形成底層通用大模型領域尚未形成底層通用大模型。根據達闥機器人創始人、董事長兼 CEO 黃曉慶 9 月 20 日在2023 亞布力智能制造發展論壇上的發言,Robot GPT 是智能制造領域需要的各種垂直的、從事各種生產的通用機器人的大腦,可以傳承各
50、種長期積累的工作經驗,且不需要人類編程,只需要人類以自然語言的方式來進行記錄。但當下機器人在不同的技能情況下仍需要不同的大模型,底層通用平臺尚未形成。目前機器人領域主流的具身智能大模型主要包括谷歌 PaLM-E、Robotic Transformer 以及 LM-Nav 等,這些大模型各自針對不同細分場景。2023 年 12 月 28 日 智能體專題報告之一 18 圖表圖表 23.主流機器人智能體對比主流機器人智能體對比 智能體智能體 模型模型架構架構 優勢優勢 主要應用場景主要應用場景 PaLM-E 視覺和語言模型(VLM)知識遷移,長距離規劃 PaLM-E 被主要應用于規劃場景。PaLM-
51、E 能夠進行長期推理規劃,抵抗任務期間可能發生的中斷。RT-2 視覺語言動作模型(VLA)具有思維鏈能力,支持復雜指令輸入 RT-2 被主要應用于控制場景,具備較強的思維鏈能力,可以完成多步驟邏輯推理,能夠通過復雜文本指令直接操控機械臂。LM-Nav 大型語言模型(LLM)+視覺和語言模型(VLM)+視覺導航模型(VNM)實時接收數據,適用于復雜環境 LM-Nav 被主要應用于導航場景。其以目的地環境的初始觀察結果以及文本指令作為輸入,通過LLM 提取指令中的地標,VLM 將文本地標與圖像關聯,最后根據 VNM 執行導航任務。資料來源:RT-2:Vision-Language-Action M
52、odels Transfer Web Knowledge to Robotic Control,PaLM-E:An Embodied Multimodal Language Model,LM-Nav:Robotic Navigation with Large Pre-Trained Models of Language,Vision,and Action,中銀證券 PaLM-E 在規劃方面優勢突出在規劃方面優勢突出。PaLM-E 能夠進行長期推理規劃,抵抗任務期間可能發生的中斷。在處理機器人任務時,PaLM-E 獲取到用戶使用自然語言定義的長期任務目標后,會根據當前機器人的狀態和感知信息,生成
53、逐步的低級文本指令,并交由下游控制模塊執行。根據每一步的執行結果及場景的變化,機器人會重新對下一步進行規劃。在谷歌視頻演示中,當研究人員從機器人手中抓取薯片并移動它們時,機器人能夠再次找到薯片并抓取它們。圖表圖表 24.PaLM-E 在在在規劃方面優勢突出在規劃方面優勢突出 資料來源:Danny Driess,et al.PaLM-E:An Embodied Multimodal Language Model,中銀證券 Robotic Transformer 主要針對控制場景。主要針對控制場景。Robotic Transformer 2(RT-2)是視覺語言行動(VLA)模型,它從網絡和機器人
54、數據中學習,并將這些知識轉化為通用指令以控制機器人。RT-2 具備較強的思維鏈能力,可以完成多步驟邏輯推理,能夠用復雜文本指令直接操控機械臂,中間不再需要將其轉化成簡單指令,通過自然語言就可得到最終的行動。在面對圖像輸入時,RT-2 模型在輸入圖像數據后會首先輸出語言規劃結果,再把語言規劃結果分解成動作,控制機器人完成。RT-2 在物流、制造、安保等領域應用廣泛。2023 年 12 月 28 日 智能體專題報告之一 19 圖表圖表 25.RT-2 架構架構 資料來源:Google DeepMindRT-2:New model translates vision and language int
55、o action,中銀證券 LM-Nav 主要針對導航場景主要針對導航場景。LM-Nav 主要基于大型語言模型(LLM)、視覺和語言模型(VLM)以及視覺導航模型(VNM)。其中 VNM 負責根據環境中的觀測值構建拓撲圖,LLM 用于提取指令中的地標,VLM 對所描述的地標和圖像的聯合概率分布進行推斷。之后系統利用 VLM 的概率分布和 VNM 推斷的圖連接性,從環境中檢索出最優指令路徑,并由 VNM 進行執行。在沒有微調的情況下,LM Nav 可實現無需對機器人導航數據進行人工注釋。2023 年 12 月 28 日 智能體專題報告之一 20 圖表圖表 26.LM-Nav 架構架構 資料來源:
56、Dhruv Shah,et al.LM-Nav:Robotic Navigation with Large Pre-Trained Models of Language,Vision,and Action,中銀證券 Robot GPT 與與 ChatGPT 技術路徑相似,技術路徑相似,生成模型有望加快生成模型有望加快 Robot GPT 進程進程。Robot GPT 不需人類編程,只需人類用自然語言的方式來進行記錄。根據 RobotGPT:From ChatGPT to Robot Intelligence,RobotGPT 框架圖思路類似于 ChatGPT:ChatGPT 的原理可理解為文字
57、-文字的接龍,而 Robot GPT原理是文字/語言/各類傳感器接收的信號-動作接龍,兩者皆是通過深度學習和強化學習構建端對端AI 大模型。圖表圖表 27.Robot GPT 架構架構 資料來源:Hongmei HeRobotGPT:From ChatGPT to Robot Intelligence,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 21 Open AI 領投的人形機器人公司 1X Technologies AI 副總裁 Eric Jang 在 我們如何讓機器人更像生成模型?中提到,機器人相比生成式模型發展相對落后的原因在于大多數研究者仍在使用相對落后的 Res
58、Net18 深度學習架構,而非在生成模型的巨大的數據集上進行模型訓練。但隨著生成模型的迅速發展,Robot GPT 進程有望加快。2018 年 6 月,OpenAI 發布 GPT-1 模型,參數達 1.1 億。同年11 月,GPT-2 模型發布,參數提升至 15 億。2020 年 5 月,GPT-3 的 beta 版本推出,模型參數迅速提升至 1750億。隨后大模型發展開始進入到百花齊放階段。2021年 1月,谷歌推出 Switch Transformer,參數量達 1.6 萬億,是史上首個萬億級語言模型;同年 12 月,谷歌推出了 1.2 萬億參數的通用稀疏語言模型 GLaM。2022 年
59、5 月,Meta AI 發布超大規模語言模型-OPT-175B,是參數超過千億級別的開放模型。2023 年 12 月,谷歌 Gemini 原生多模態大模型發布,模型分為 Ultra、Pro 和 Nano 三個規格,目前 Gemini Pro 模型已整合到 Google AI Studio 和 Vertex AI 中,可供企業在開發中使用。圖表圖表 28.2020 年以來大模型發展歷程年以來大模型發展歷程 資料來源:Rebecca Li,et al.Current Best Practices for Training LLMs from Scratch,中銀證券 生成模型正逐步運用到機器人大模
60、型中。生成模型正逐步運用到機器人大模型中。2023 年 7 月,斯坦福大學李飛飛團隊發布 VoxPoser 系統,將大模型 ChatGPT 4+VLM,接入至機器人,可在無需額外數據和訓練的情況下,將復雜指令轉化為具體的行動規劃。在給定環境信息和要執行的自然語言指令后,LLM(大語言模型)直接相應內容編寫代碼,并將所生成代碼與 VLM(視覺語言模型)進行交互,指導系統生成相應操作指示地圖,即 3D Value Map,最后,運動規劃器合成 6-DoF 動作,整個流程無需對模型進行任何額外的訓練。圖表圖表 29.VoxPoser 的現實運用場景的現實運用場景 資料來源:Wenlong Huang
61、,et al.VoxPoser:Composable 3D Value Maps for Robotic Manipulation with Language Models,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 22 打造打造 Robot GPT 的關鍵是解決數據稀缺問題。的關鍵是解決數據稀缺問題。Robot GPT 的泛化能力與 LLM 大模型的贗本數量直接相關。根據PaLM-E:An Embodied Multimodal Language Model,谷歌 PaLM-E 62B 的 LLM 相對于 8B 的 LLM 體現了更好的 out-of-distribut
62、ion 泛化性,LLM 數據量的提升顯著增強了 RObot GPT泛化性。目前通過大模型的涌現能力和思維鏈能力,可以使部分任務零樣本學習到,但 Voxposer 機器人還是局限在桌面上進行操作,如果要實現更廣闊空間的擴展,仍需要高質量數據做支撐。圖表圖表 30.大模型參數與訓練數據規模呈正相關大模型參數與訓練數據規模呈正相關 資料來源:中國信通院人工智能白皮書(2022年),中銀證券 數據仿真有望成為產業突破關鍵數據仿真有望成為產業突破關鍵。區別于非具身智能,具身智能需要實際部署到真實環境中,才能夠采集數據,但目前探索真實環境成本高昂且需要海量數據。智元機器人 CTO、首席架構師稚暉君在接受媒
63、體甲子光年的采訪中表示,現在 LLM 的預訓練通常需要 web-scale 級別的數據,而具身智能的場景更為復雜,數據獲取難度進一步加大。而數據仿真具備完善的數據分布,不僅涵蓋 common case,同時也涵蓋大量 corner case,尤其是現實中獲取難度極大,獲取代價極高的數據。其數據成本低且可以規避數據隱私和安全問題。根據 Will we run out of data?An analysis of the limits of scaling datasets in Machine Learning文中預測,2026 年文本數據將被訓練完,而圖像數據將在 2040 年左右耗盡。根據
64、Gartner 的預測,2026 年模型訓練數據中的 50%將由合成數據構成;2030 年合成數據的質量將全面超過人類標注的真實數據。數據仿真或將成為產業突破關鍵。圖表圖表 31.合成數據將成為人工智能中使用的主要數據形式合成數據將成為人工智能中使用的主要數據形式 資料來源:GartnerForget About Your Real Data Synthetic Data Is the Future of AI,中銀證券 2023 年 12 月 28 日 智能體專題報告之一 23 投資建議投資建議 智能體應用落地:短期自動駕駛有望快速落地,中長期具身智能機器人成長可期。智能體應用落地:短期自動
65、駕駛有望快速落地,中長期具身智能機器人成長可期。根據北京智源人工智能研究院院長黃鐵軍在 2023 STIC 科技創變者大會上的發言,1-3 年內 L4、L5 級別的自動駕駛技術就能實現,而搭載具身智能的機器人則會在未來 5-10 年出現。我們認為短期內,自動駕駛有望成為具身智能體的首個落地方向。自動駕駛層面自動駕駛層面:端到端大模型技術有望快速超越現有范式,奇點已經臨近。端到端大模型技術有望快速超越現有范式,奇點已經臨近。UniAd 大模型是國內首大模型是國內首個端到端自動駕駛大模型,將感知、預測和規劃整合到一個基于個端到端自動駕駛大模型,將感知、預測和規劃整合到一個基于 Transforme
66、r 的端到端網絡框架下。的端到端網絡框架下。Drive GPT 平臺級機會顯現。建議關注:商湯科技。平臺級機會顯現。建議關注:商湯科技。機器人層面:生成式模型的快速迭代有望加快機器人層面:生成式模型的快速迭代有望加快 Robot RPT 進程,產業存在大量模擬數據需求。建議進程,產業存在大量模擬數據需求。建議關注數據仿真相關廠商:中科曙光(新一代工業仿真云平臺關注數據仿真相關廠商:中科曙光(新一代工業仿真云平臺“力源力源 久宇久宇”)、索辰科技()、索辰科技(CAE 仿真仿真軟件)、軟通動力(軟件)、軟通動力(iSSMeta 數字仿真推演平臺)。數字仿真推演平臺)。2023 年 12 月 28
67、 日 智能體專題報告之一 24 風險提示風險提示 1.技術突破不及預期。智能體在自動駕駛、機器人等領域的落地需要算力、多模態、傳感器感知等多領域的協同發展,如果技術突破不及預期,將會影響智能體商業化落地進程。2.數據采集不及預期。自動駕駛、機器人底層平臺的訓練需要大量行業數據的支撐,如果無法高效收集行業數據,將會影響大模型推進進度。2023 年 12 月 28 日 智能體專題報告之一 25 披露聲明披露聲明 本報告準確表述了證券分析師的個人觀點。該證券分析師聲明,本人未在公司內、外部機構兼任有損本人獨立性與客觀性的其他職務,沒有擔任本報告評論的上市公司的董事、監事或高級管理人員;也不擁有與該上
68、市公司有關的任何財務權益;本報告評論的上市公司或其它第三方都沒有或沒有承諾向本人提供與本報告有關的任何補償或其它利益。中銀國際證券股份有限公司同時聲明,將通過公司網站披露本公司授權公眾媒體及其他機構刊載或者轉發證券研究報告有關情況。如有投資者于未經授權的公眾媒體看到或從其他機構獲得本研究報告的,請慎重使用所獲得的研究報告,以防止被誤導,中銀國際證券股份有限公司不對其報告理解和使用承擔任何責任。評級體系說明評級體系說明 以報告發布日后公司股價/行業指數漲跌幅相對同期相關市場指數的漲跌幅的表現為基準:公司投資評級:公司投資評級:買 入:預計該公司股價在未來 6-12 個月內超越基準指數 20%以上
69、;增 持:預計該公司股價在未來 6-12 個月內超越基準指數 10%-20%;中 性:預計該公司股價在未來 6-12 個月內相對基準指數變動幅度在-10%-10%之間;減 持:預計該公司股價在未來 6-12 個月內相對基準指數跌幅在 10%以上;未有評級:因無法獲取必要的資料或者其他原因,未能給出明確的投資評級。行業投資評級:行業投資評級:強于大市:預計該行業指數在未來 6-12 個月內表現強于基準指數;中 性:預計該行業指數在未來 6-12 個月內表現基本與基準指數持平;弱于大市:預計該行業指數在未來 6-12 個月內表現弱于基準指數;未有評級:因無法獲取必要的資料或者其他原因,未能給出明確
70、的投資評級。滬深市場基準指數為滬深 300 指數;新三板市場基準指數為三板成指或三板做市指數;香港市場基準指數為恒生指數或恒生中國企業指數;美股市場基準指數為納斯達克綜合指數或標普 500 指數。風險提示及免責聲明風險提示及免責聲明 本報告由中銀國際證券股份有限公司證券分析師撰寫并向特定客戶發布。本報告發布的特定客戶包括:1)基金、保險、QFII、QDII 等能夠充分理解證券研究報告,具備專業信息處理能力的中銀國際證券股份有限公司的機構客戶;2)中銀國際證券股份有限公司的證券投資顧問服務團隊,其可參考使用本報告。中銀國際證券股份有限公司的證券投資顧問服務團隊可能以本報告為基礎,整合形成證券投資
71、顧問服務建議或產品,提供給接受其證券投資顧問服務的客戶。中銀國際證券股份有限公司不以任何方式或渠道向除上述特定客戶外的公司個人客戶提供本報告。中銀國際證券股份有限公司的個人客戶從任何外部渠道獲得本報告的,亦不應直接依據所獲得的研究報告作出投資決策;需充分咨詢證券投資顧問意見,獨立作出投資決策。中銀國際證券股份有限公司不承擔由此產生的任何責任及損失等。本報告內含保密信息,僅供收件人使用。閣下作為收件人,不得出于任何目的直接或間接復制、派發或轉發此報告全部或部分內容予任何其他人,或將此報告全部或部分內容發表。如發現本研究報告被私自刊載或轉發的,中銀國際證券股份有限公司將及時采取維權措施,追究有關媒
72、體或者機構的責任。所有本報告內使用的商標、服務標記及標記均為中銀國際證券股份有限公司或其附屬及關聯公司(統稱“中銀國際集團”)的商標、服務標記、注冊商標或注冊服務標記。本報告及其所載的任何信息、材料或內容只提供給閣下作參考之用,并未考慮到任何特別的投資目的、財務狀況或特殊需要,不能成為或被視為出售或購買或認購證券或其它金融票據的要約或邀請,亦不構成任何合約或承諾的基礎。中銀國際證券股份有限公司不能確保本報告中提及的投資產品適合任何特定投資者。本報告的內容不構成對任何人的投資建議,閣下不會因為收到本報告而成為中銀國際集團的客戶。閣下收到或閱讀本報告須在承諾購買任何報告中所指之投資產品之前,就該投
73、資產品的適合性,包括閣下的特殊投資目的、財務狀況及其特別需要尋求閣下相關投資顧問的意見。盡管本報告所載資料的來源及觀點都是中銀國際證券股份有限公司及其證券分析師從相信可靠的來源取得或達到,但撰寫本報告的證券分析師或中銀國際集團的任何成員及其董事、高管、員工或其他任何個人(包括其關聯方)都不能保證它們的準確性或完整性。除非法律或規則規定必須承擔的責任外,中銀國際集團任何成員不對使用本報告的材料而引致的損失負任何責任。本報告對其中所包含的或討論的信息或意見的準確性、完整性或公平性不作任何明示或暗示的聲明或保證。閣下不應單純依靠本報告而取代個人的獨立判斷。本報告僅反映證券分析師在撰寫本報告時的設想、
74、見解及分析方法。中銀國際集團成員可發布其它與本報告所載資料不一致及有不同結論的報告,亦有可能采取與本報告觀點不同的投資策略。為免生疑問,本報告所載的觀點并不代表中銀國際集團成員的立場。本報告可能附載其它網站的地址或超級鏈接。對于本報告可能涉及到中銀國際集團本身網站以外的資料,中銀國際集團未有參閱有關網站,也不對它們的內容負責。提供這些地址或超級鏈接(包括連接到中銀國際集團網站的地址及超級鏈接)的目的,純粹為了閣下的方便及參考,連結網站的內容不構成本報告的任何部份。閣下須承擔瀏覽這些網站的風險。本報告所載的資料、意見及推測僅基于現狀,不構成任何保證,可隨時更改,毋須提前通知。本報告不構成投資、法
75、律、會計或稅務建議或保證任何投資或策略適用于閣下個別情況。本報告不能作為閣下私人投資的建議。過往的表現不能被視作將來表現的指示或保證,也不能代表或對將來表現做出任何明示或暗示的保障。本報告所載的資料、意見及預測只是反映證券分析師在本報告所載日期的判斷,可隨時更改。本報告中涉及證券或金融工具的價格、價值及收入可能出現上升或下跌。部分投資可能不會輕易變現,可能在出售或變現投資時存在難度。同樣,閣下獲得有關投資的價值或風險的可靠信息也存在困難。本報告中包含或涉及的投資及服務可能未必適合閣下。如上所述,閣下須在做出任何投資決策之前,包括買賣本報告涉及的任何證券,尋求閣下相關投資顧問的意見。中銀國際證券
76、股份有限公司及其附屬及關聯公司版權所有。保留一切權利。中銀國際證券股份有限公司中銀國際證券股份有限公司 中國上海浦東 銀城中路 200 號 中銀大廈 39 樓 郵編 200121 電話:(8621)6860 4866 傳真:(8621)5888 3554 相關關聯機構:相關關聯機構:中銀國際研究有限公司中銀國際研究有限公司 香港花園道一號 中銀大廈二十樓 電話:(852)3988 6333 致電香港免費電話:中國網通 10 省市客戶請撥打:10800 8521065 中國電信 21 省市客戶請撥打:10800 1521065 新加坡客戶請撥打:800 852 3392 傳真:(852)2147
77、 9513 中銀國際證券有限公司中銀國際證券有限公司 香港花園道一號 中銀大廈二十樓 電話:(852)3988 6333 傳真:(852)2147 9513 中銀國際控股有限公司北京代表處中銀國際控股有限公司北京代表處 中國北京市西城區 西單北大街 110 號 8 層 郵編:100032 電話:(8610)8326 2000 傳真:(8610)8326 2291 中銀國際中銀國際(英國英國)有限公司有限公司 2/F,1 Lothbury London EC2R 7DB United Kingdom 電話:(4420)3651 8888 傳真:(4420)3651 8877 中銀國際中銀國際(美國美國)有限公司有限公司 美國紐約市美國大道 1045 號 7 Bryant Park 15 樓 NY 10018 電話:(1)212 259 0888 傳真:(1)212 259 0889 中銀國際中銀國際(新加坡新加坡)有限公司有限公司 注冊編號 199303046Z 新加坡百得利路四號 中國銀行大廈四樓(049908)電話:(65)6692 6829/6534 5587 傳真:(65)6534 3996/6532 3371