《計算機行業人工智能系列報告(三):人形機器人步入軟件定義和AI驅動時代-240417(20頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業人工智能系列報告(三):人形機器人步入軟件定義和AI驅動時代-240417(20頁).pdf(20頁珍藏版)》請在三個皮匠報告上搜索。
1、 1|請務必仔細閱讀報告尾部的投資評級說明和聲明 行業專題報告行業專題報告|計算機計算機 人形機器人步入軟件定義和 AI 驅動時代 人工智能系列報告(三)核心結論核心結論 行業評級行業評級 超配超配 前次評級 超配 評級變動 維持 近一年近一年行業行業走勢走勢 相對表現相對表現 1 個月個月 3 個月個月 12 個月個月 計算機-16.01-9.47-37.28 滬深 300-1.65 8.73-15.38 分析師分析師 鄭宏達鄭宏達 S0800524020001 13918906471 相關研究相關研究 計算機:大模型企業級 B 端收入有望高速增長計算機行業周觀點第 7 期 2024-04-
2、14 計算機:廣州數科集團,國企市值管理標桿,打造新質生產力 2024-04-09 計算機:繼續看好端側智能計算機行業2024 年 4 月研究觀點 2024-04-07 基于對人形機器人發展階段及核心競爭力的分析,基于對人形機器人發展階段及核心競爭力的分析,我們認為人形機器人已我們認為人形機器人已經跨入了一個全新的軟件定義經跨入了一個全新的軟件定義加加 AI 驅動的時代驅動的時代。軟件不僅承載著人形機器人的基礎操作系統和應用算法,而且通過不斷迭代升級,為人形機器人賦予了超越傳統機械設備的智能特性。軟件和 AI 不僅開啟了人形機器人在各行各業廣泛應用的可能性,更定義了人形機器人的功能邊界?;谌?/p>
3、形機器人所展現出的高度機械化特性以及在視覺感知方面對自基于人形機器人所展現出的高度機械化特性以及在視覺感知方面對自動駕駛算法的成功復用,我們認為人形機器人處于由高動態向高度智動駕駛算法的成功復用,我們認為人形機器人處于由高動態向高度智能化發展的階段。能化發展的階段。高動態是指機器人在運動能力上表現優秀,特別是平衡性、越障礙能力等。當前人形機器人機械化程度較高且具備較強的運動控制及環境感知能力。運動控制方面,波士頓動力的 Atlas 人形機器人身體協調性非常出色,除了行走,還完成翻滾等高難度動作;感知方面,特斯拉 Optimus 基于完全端到端訓練的神經網絡架構,底層感知、識別算法等等已經和 F
4、SD 打通復用。我們認為人形機器人的核心競爭力在于其通用性和泛化性,即智能化我們認為人形機器人的核心競爭力在于其通用性和泛化性,即智能化程度,也就是在面對各種未知環境、任務和交互情境時的高度適應性程度,也就是在面對各種未知環境、任務和交互情境時的高度適應性和自我學習能力和自我學習能力。人形機器人的設計初衷是通過模仿人類的形態和行為能力,讓其能無縫使用人類所有的基礎設施和工具,以便在多種環境中執行任務,提高生產效率,尤其是在替代人類執行一些可能危險、困難或不適宜的任務。人形機器人的商業化進程中深受應用場景局限性的影響,提高智能程度能夠顯著拓寬人形機器人應用場景,打破現有局限,提升其對復雜環境的適
5、應性和任務執行的靈活性。大模型成為“大模型成為“AI 大腦”,通用人形機器人曙光已現大腦”,通用人形機器人曙光已現。1)“決策”+“認知”是智能機器人智能化水平的高層次判斷標準。根據當前技術形態研判,國內外的人形機器人目前已普遍處在 L3 階段,并隨著大模型時代的到來逐漸向 L4 和 L5 階段進行發展,而實現人形機器人智能化等級的躍升,提升其決策和認知能力是必經之路更是核心難點之一。2)大模型+機器人是 AI 重要落地場景,大模型的泛化能力為通用人形機器人的發展帶來曙光。大模型憑借其龐大的知識庫和強大的理解能力所帶來的泛化能力,賦予了人形機器人更高的通用性,使其能夠滿足不同場景下的多樣化任務
6、需求;同時大模型的輔助編程等功能還能有效降低軟件開發成本,有望加速人形機器人商業化落地。建議關注:建議關注:1)視覺感知:)視覺感知:??低?、大華股份、虹軟科技、智微智能;2)機器人大模型:)機器人大模型:科大訊飛、商湯-W、云從科技-UW。風險提示:人形機器人技術發展不及預期、政策法規環境不確定風險、供應鏈與制造成本上升風險、國際競爭加劇與技術替代風險。-45%-38%-31%-24%-17%-10%-3%4%2023-042023-082023-12計算機滬深300證券研究報告證券研究報告 2024 年 04 月 17 日 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月
7、月 17 日日 2|請務必仔細閱讀報告尾部的投資評級說明和聲明 索引 內容目錄 一、為什么我們認為人形機器人步入軟件定義時代?.4 1.1 人形機器人現在處于什么發展階段?.5 1.2 人形機器人的核心競爭力在于什么?.6 1.3 為什么我們認為人形機器人步入軟件定義時代?.7 二、大模型成為“AI 大腦”,通用人形機器人曙光已現.8 2.1 人形機器人走向通用,“決策”+“認知”是必經之路.8 2.2 具身智能技術持續突破,通用人形機器人新紀元將至.9 2.2.1 ChatGPT for Robotics:大模型賦能機器人的初步探索.10 2.2.2 PaLM-E:具身多模態視覺語言模型,是
8、具身智能領域的一次重大飛躍.11 2.2.3 RT-2:全球首個 VLA 多模態大模型,能夠理解視覺輸入,機器人模型里程碑.12 2.2.4 VoxPoser:實現零樣本機器人任務軌跡規劃.13 2.2.5 RoboAgent:實現通用機器人小數據集的快速訓練.14 2.2.6 RT-X:基于多個數據集的機器人通用大模型.14 2.2.7 Eureka:基于 GPT-4 的人工智能代理.15 2.2.8 RobotGPT:ChatGPT 運用于機器人的框架.16 2.2.9 EVE:依賴端到端神經網絡實現自主工作.16 2.2.10 Figure 01:能聽、能說、能自主決策的人形機器人.17
9、 2.2.11 GR00T通用人形機器人基礎模型.18 三、建議關注.19 四、風險提示.19 圖表目錄 圖 1:汽車產業發展歷程.4 圖 2:人形機器人發展大事記.5 圖 3:波士頓動力 Atlas 俯身下蹲抓起工具包.5 圖 4:波士頓動力 Atlas 蹦上高臺.5 圖 5:波士頓動力 Atlas 推完箱子后保持身子平衡,不前傾摔倒.6 圖 6:波士頓動力 Atlas 前空翻落地.6 圖 7:Tesla Optimus Gen2 用手指抓取雞蛋(屏幕右側實時顯示了手指壓力).6 圖 8:Tesla Optimus Gen2 疊衣服(目前尚不能自主執行疊衣服操作).6 圖 9:優必選人形機器
10、人發展歷程及展望.7 圖 10:泛化能力包括跨語言泛化、跨任務泛化、跨領域泛化、結構泛化、組合泛化、魯棒性等.9 圖 11:2023 年至今“大模型+機器人”發展進程.10 圖 12:傳統機器人任務需要工程師在循環中不斷改進.11 圖 13:接入 ChatGPT 后工程師無需在循環中調整.11 圖 14:ChatGPT for Robotics 的設計原則.11 圖 15:PaLM-E 主要架構.12 圖 16:PaLM-E 在復雜的移動操作任務表現出色.12 圖 17:RT-2 架構.13 圖 18:Voxposer 系統流程.14 圖 19:RoboAgent 采用的多任務動作分塊 MT-
11、ACT 架構.14 qVkZmXmVkWqRvNtMnOnQ7NdN7NpNnNsQnRkPpPmQjMqRuM9PpOqQvPtQvNwMoOrR 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 3|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 20:RT-X 架構.15 圖 21:Eureka 訓練機械手臂完成高難度的轉筆動作.15 圖 22:Robot-GPT 架構.16 圖 23:EVE 可自主進行物品搬運收納.17 圖 24:EVE 可自主進行充電.17 圖 25:Figure01 技術原理.17 圖 28:優必選 Walker S 根據語音指令完成
12、疊衣服任務.18 圖 26:GR00T 能夠理解語言、視頻和演示.18 圖 27:GR00T 基于 NVIDIA 深度技術堆棧開發.18 表 1:機器人智能化信息模型要素.8 表 2:通用智能化等級判斷依據.9 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 4|請務必仔細閱讀報告尾部的投資評級說明和聲明 一、一、為什么我們認為人形機器人步入軟件定義時代?為什么我們認為人形機器人步入軟件定義時代?由于技術與產業關聯性、以及未來成本下降和規?;a路徑相似性,人形機器人經常由于技術與產業關聯性、以及未來成本下降和規?;a路徑相似性,人形機器人經常與汽車類比。與汽
13、車類比。人形機器人和汽車都是高度工程化的產物,需要集成多種技術和部件。特斯拉等公司在開發人形機器人時,強調了與汽車業務的共享技術路徑,比如使用類似的電池技術、電機技術、AI 算法以及自動駕駛技術。汽車集合了動力系統、傳動系統、電子控制系統等多種復雜組件,人形機器人同樣融合了機械設計、運動控制、感知系統(目前多數汽車也有傳感器和雷達)等;而汽車的自動駕駛技術則可以對應于目前人形機器人自主決策與動作規劃。復盤汽車產業復盤汽車產業“機械時代電子“機械時代電子時代軟件時代”時代軟件時代”發展歷程發展歷程,本質是本質是汽車的汽車的核心競爭力核心競爭力在發生變化在發生變化。在“機械時代”,汽車的核心競爭力
14、主要體現在機械結構和制造工藝上,這一時期的汽車更多依賴于物理結構和機械性能來滿足市場需求。而后汽車產業進入“電子時代”,電子控制單元(ECU)的應用開始提升車輛的功能性,此時的核心競爭力轉向了電子技術和系統集成能力,這些技術的應用不僅提高了汽車的安全性和舒適性,也使得汽車能夠實現更復雜的控制功能。隨后,硬件功能及成本改善升級空間逐步變小,汽車產業進入“軟件時代”,汽車的核心競爭力發生了根本性的變化,軟件定義汽車(SDV)的概念應運而生,汽車從高度機電一體化的機械終端,逐步轉變為一個智能化、可拓展、可持續迭代升級的移動電子終端。圖 1:汽車產業發展歷程 資料來源:頭豹研究院、西部證券研發中心 行
15、業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 5|請務必仔細閱讀報告尾部的投資評級說明和聲明 1.1 人形機器人現在處于什么發展階段?人形機器人現在處于什么發展階段?基于基于人形機器人所展現出的高度機械化人形機器人所展現出的高度機械化特性特性以及以及在視覺感知方面對在視覺感知方面對自動駕駛算法自動駕駛算法的成功的成功復用,復用,我們認為我們認為人形機器人人形機器人處于由高動態向高度智能化發展處于由高動態向高度智能化發展的的階段。階段。高動態是指機器人在運動能力上表現優秀,特別是平衡性、越障礙能力等。當前人形機器人機械化程度較高,體現強大的運動性能、仿生結構設計、
16、先進材料應用和精細操作能力等層面;且具備較強的運動控制及環境感知能力,體現在多傳感器融合感知、無線通信、模塊化設計以及能源管理等多個方面。展望未來,人形機器人將在現有基礎上,進一步強化自主決策與深度學習能力,在復雜場景下能夠獨立思考、適應環境并持續優化自身行為。圖 2:人形機器人發展大事記 資料來源:中國機器人網、新智元、智東西、機器之心、優必選科技視頻號、西部證券研發中心 運動能力方面,以波士頓動力的人形機器人 Atlas 為例。Atlas 有多達 28 個自由度,涵蓋雙足、軀干、手臂等,確保了全方位、精細化的動作模擬。這種高自由度賦予 Atlas 出色的身體協調性與靈活性,使其能精準模仿人
17、類復雜的行走步態、跑動、跳躍,甚至完成翻滾、360 度旋轉等高難度動作。圖 3:波士頓動力 Atlas 俯身下蹲抓起工具包 圖 4:波士頓動力 Atlas 蹦上高臺 資料來源:量子位微信公眾號、西部證券研發中心 資料來源:量子位微信公眾號、西部證券研發中心 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 6|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 5:波士頓動力 Atlas 推完箱子后保持身子平衡,不前傾摔倒 圖 6:波士頓動力 Atlas 前空翻落地 資料來源:量子位微信公眾號、西部證券研發中心 資料來源:量子位微信公眾號、西部證券研發中心 感知方面,
18、以 Optimus特斯拉基于端到端訓練的神經網絡架構的人形機器人為例。2023 年年 12 月,特斯拉發布其最新一代人形機器人月,特斯拉發布其最新一代人形機器人 Optimus Gen2 的最新進展的最新進展,步行速步行速度提升度提升 30%,整體重量減輕,整體重量減輕 10kg,且具有觸覺感知靈巧手,且具有觸覺感知靈巧手。與之前的版本相比,Optimus Gen2 的穩態行走能力有了較大提升,步行速度加快 30%;手有 11 個自由度,手指搭載觸覺傳感器能夠精準抓握雞蛋等易碎物品;且能夠完成多個深蹲動作并保持身體平衡等。Optimus 基于完全端到端基于完全端到端訓練訓練的的神經網絡架構神經
19、網絡架構,底層感知、識別算法等等已經和底層感知、識別算法等等已經和 FSD打通復用。打通復用。馬斯克表示,特斯拉目前已經打通了 FSD 與 Optimus 的底層模塊,實現了一定程度的算法復用。FSD(Full Self-Driving,全自動駕駛)算法主要依賴于神經網絡和計算機視覺技術,其核心是神經網絡模型:通過對實時傳感器獲取的數據進行處理和分析并從中提取有關道路、車輛、行人和障礙物等信息,可以實現車輛的環境感知和物體識別,而 FSD 算法在人形機器人的感知、決策和控制等方面也同樣起到重要作用。Optimus 的神經網絡是完全的端到端訓練架構,即可以做到視頻信號輸入和控制信號輸出,能夠直接
20、從原始輸入端到輸出端進行訓練而無需進行手動特征工程或中間階段處理,有效縮短研發周期、實現快速的產品迭代。圖 7:Tesla Optimus Gen2 用手指抓取雞蛋(屏幕右側實時顯示了手指壓力)圖 8:Tesla Optimus Gen2 疊衣服(目前尚不能自主執行疊衣服操作)資料來源:機器之心微信公眾號、西部證券研發中心 資料來源:機器之心微信公眾號、西部證券研發中心 1.2 人形機器人的核心競爭力在于什么?人形機器人的核心競爭力在于什么?“擬人“擬人化化”不只是身體”不只是身體和行為和行為擬人,更重要的是擬人,更重要的是大腦和大腦和思維思維擬人擬人,人形機器人不是,人形機器人不是單純單純地
21、執行地執行預先編寫預先編寫程序的機械設備程序的機械設備,而是擁有自主決策和學習能力的智能終端,而是擁有自主決策和學習能力的智能終端。人形機器人的研究和發展不僅僅只是為了模仿人類的外觀形態,更重要的是要賦予它們類似于人類的認知能力和情感表達能力,使其能夠理解和響應人類的需求,在不同的環境和場景 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 7|請務必仔細閱讀報告尾部的投資評級說明和聲明 中自主地完成任務。圖 9:優必選人形機器人發展歷程及展望 資料來源:雷峰網、優必選官網、西部證券研發中心 人形機器人的商業化進程中深受應用場景局限性的影響,通用性和智能化或將成為
22、破局人形機器人的商業化進程中深受應用場景局限性的影響,通用性和智能化或將成為破局關鍵。關鍵?;仡櫄v史,可以發現人形機器人商業化進程非常艱難折:波士頓動力公司多次易主;曾經引領時代的本田 ASIMO 機器人退役;軟銀縮減機器人業務,停止 Pepper 生產。盡管波士頓動力、本田 ASIMO 和軟銀 Pepper 等人形機器人在技術演示中展現出卓越的運動能力、互動性能或情感交流特性,但在實際應用中,它們往往難以找到足夠廣泛且具有經濟效益的落地場景。所以,所以,我們認為人形機器人的核心競爭力在于其通用性和泛化性我們認為人形機器人的核心競爭力在于其通用性和泛化性,即智能化程度,即智能化程度,也就,也就
23、是在面對各種未知環境、任務和交互情境時的高度適應性和自我學習能力。是在面對各種未知環境、任務和交互情境時的高度適應性和自我學習能力。汽車是一種代步工具,而人形機器人更多地聚焦于替代或輔助人類執行任務。人形機器人的設計初衷是通過模仿人類的形態和行為能力,讓其能無縫使用人類所有的基礎設施和工具,以便在多種環境中執行任務,提高生產效率,尤其是在替代人類執行一些可能危險、困難或不適宜的任務。提高智能程度能夠顯著拓寬人形機器人應用場景,打破現有局限,提升其對復雜環境的提高智能程度能夠顯著拓寬人形機器人應用場景,打破現有局限,提升其對復雜環境的適應性和任務執行的靈活性適應性和任務執行的靈活性。高度智能的人
24、形機器人將具備更強的學習能力,能在與環境的互動中不斷優化行為策略,適應多樣化的操作任務和未知情境。同時,自然語言處理和情境理解的進步將使人形機器人能夠更好地與人類進行溝通,理解并響應復雜指令,甚至預測用戶需求。此外,智能化還體現在自主決策與故障診斷能力的提升,使人形機器人能夠在無人干預下獨立完成任務,減少對遠程操控或現場人工指導的依賴,大大增強了其在遠程作業、危險環境作業等領域的應用潛力。1.3 為什么我們認為人形機器人步入軟件定義時代?為什么我們認為人形機器人步入軟件定義時代?人形機器人正逐步邁進由高動態運動性能向高度智能化躍升的新階段,這一轉變離不開AI 的發展與深度融入。隨著 AI 技術
25、在感知、認知、決策與執行層面的全面賦能,人形機器人擁有了更強大的環境感知能力,可以通過視覺、聽覺、觸覺等多種傳感器收集信息,利用深度學習、強化學習等先進算法解析復雜數據,進行實時決策,并通過高精度的動 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 8|請務必仔細閱讀報告尾部的投資評級說明和聲明 力系統實現細膩、流暢且靈活的動作執行。更重要的是,人形機器人的核心競爭力在于其依托 AI 實現的通用性和泛化性。借助強大的 AI 引擎,人形機器人將能在多種任務場景中實現快速學習與適應,無需硬件改造即可通過軟件更新升級功能,這使得它們未來能夠廣泛應用于制造、教育、醫療、
26、娛樂、養老、救援等多元領域,展現較強的普適性和延展性。因此,我們認為人形機器人已經跨入了一個全新的軟件定義因此,我們認為人形機器人已經跨入了一個全新的軟件定義、AI 驅動的時代驅動的時代。軟件不僅軟件不僅承載著人形機器人的基礎操作系統和應用算法,而且通過不斷迭代升級,為人形機器人承載著人形機器人的基礎操作系統和應用算法,而且通過不斷迭代升級,為人形機器人賦予了超越傳統機械設備的智能特性賦予了超越傳統機械設備的智能特性。軟件和軟件和 AI 不僅不僅開啟了人形機器人在各行各業廣泛開啟了人形機器人在各行各業廣泛應用的可能性應用的可能性,更,更定義了人形機器人的功能邊界定義了人形機器人的功能邊界。二、
27、二、大模型大模型成為成為“AI大腦”,通用人形機器人曙光已現大腦”,通用人形機器人曙光已現 2.1 人形機器人走向通用,“決策”人形機器人走向通用,“決策”+“認知”是必經之路“認知”是必經之路 “決策”“決策”+“認知”是智能機器人智能化水平的高層次判斷標準?!罢J知”是智能機器人智能化水平的高層次判斷標準。我國 2022 年發布的智能機器人智能化等級評價規范從要素智能化等級、綜合通用智能化等級和綜合場景智能化等級三個方面對機器人智能化等級進行了權威的分類,并根據智能化程度不同從低到高劃分為 1 級5 級。其中,綜合通用智能化評級主要從感知、執行、決策和認知四個方面對機器人的智能化綜合能力進行
28、評價,從低到高可分為 L1(基礎型)、L2(半交互型)、L3(交互型)、L4(自主型)、L5(自適應型)。根據該標準,決策和認知能力是判斷機器人智能化水平高低的最高層次標準,其中認知能力主要衡量其建模、理解和推理等方面的能力,執行能力衡量其運動執行和交互等方面的能力。根據當前技術根據當前技術形態研判,形態研判,國內外的人形機器人目前已普遍處在國內外的人形機器人目前已普遍處在 L3 階段,并隨著大模型時代的到來逐階段,并隨著大模型時代的到來逐漸向漸向 L4 和和 L5 階段進行發展,而實現人形機器人智能化等級的躍升,提升其決策和認知階段進行發展,而實現人形機器人智能化等級的躍升,提升其決策和認知
29、能力是必經之路更是核心難點之一。能力是必經之路更是核心難點之一。表 1:機器人智能化信息模型要素 要素要素 子要素子要素 具體項目具體項目 感知 視覺 人臉識別、字符識別、圖像識別、定位測距 聽覺 聲源定位、語言識別 觸覺 壓覺、力覺、冷熱覺 嗅覺 對于氣味的識別 其他 環境感知、味覺 認知 建模 激光建圖、視覺建圖、語義建圖、知識庫構建 理解 語義理解、多輪語義規劃、多輪對話理解、情感理解、多模態意圖理解 推理 偏好推薦、知識推理 決策 規劃 任務規劃、動作規劃、路徑規劃、不確定環境下的運動規劃 優化 自適應標定技術、可強化的物體操縱技術、機器學習技術、知識庫擴充 執行 運動執行 移動能力、
30、操作能力 交互 語音交互、表情交互、文字交互、肢體語言交互、界面交互、多模態交互、多機交互、操作交互 注:上述測試項目是基于目前技術現狀,后續根據技術發展會出現新的測試項目。資料來源:智能機器人智能化等級評價規范,西部證券研發中心 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 9|請務必仔細閱讀報告尾部的投資評級說明和聲明 表 2:通用智能化等級判斷依據 等級等級 判斷依據判斷依據 感知感知 執行執行 決策決策 認知認知 L1(基礎型)有 部分有/L2(半交互型)有 有/L3(交互型)有 有 部分有/L4(自主型)有 有 有/L5(自適應型)有 有 有 有 資
31、料來源:智能機器人智能化等級評價規范,西部證券研發中心 正如我們前文所說,正如我們前文所說,人形機器人以解放人體、自主完成任務為目標,其長期的核心價值人形機器人以解放人體、自主完成任務為目標,其長期的核心價值在于通用性在于通用性、泛化性、泛化性。目前工業機器人的技術雖已相對成熟,但其僅適用于汽車制造、紡織、包裝等行業中單一重復性的生產工作。而人形機器人作為智能機器人的具象化,其在“擬人”之下更為核心的價值在于通用性,更高的通用性則要求其要具備更高的感知、執行、決策和認知能力,以減少對人工指令的依賴,提升對更復雜的非結構化環境的理解和適應能力,從而能夠在更廣泛的應用場景中發揮作用。大模型大模型+
32、機器人是機器人是 AI 重要落地場景,大模型的泛化能力為通用人形機器人的發展帶來曙重要落地場景,大模型的泛化能力為通用人形機器人的發展帶來曙光。光。模型泛化能力(Generlisation)是機器學習和人工智能領域評判模型性能的重要指標之一,其可以理解為一種遷移學習的能力,即把從過去的經驗中學習到的表示、知識和策略應用到新領域的能力。以往的算法模型泛化能力較低,即便經過大量訓練也難以覆蓋所有小概率邊緣場景,因此通常僅被用在特定的應用場景,難以進行應用場景的拓展。而大模型憑借其龐大的知識庫和強大的理解能力所帶來的泛化能力,賦予了人形機器人更高的通用性,使其能夠滿足不同場景下的多樣化任務需求;同時
33、大模型的輔助編程等功能還能有效降低軟件開發成本,有望加速人形機器人商業化落地。圖 10:泛化能力包括跨語言泛化、跨任務泛化、跨領域泛化、結構泛化、組合泛化、魯棒性等 資料來源:State-of-the-art generalisation research in NLP:A taxonomy and review、西部證券研發中心 2.2 具身智能技術持續突破,通用人形機器人新紀元將至具身智能技術持續突破,通用人形機器人新紀元將至 大模型掀大模型掀起起了具身智能新興領域的研究熱潮,具身智能或將成為了具身智能新興領域的研究熱潮,具身智能或將成為 AI 領域的下一個“北極領域的下一個“北極星”問題
34、。星”問題。自大模型流行至今,谷歌、微軟、英偉達等國外科技巨頭等紛紛投入到基于大模型的具身智能的研究賽道中,相關理論和技術得到持續突破。我們梳理了 2023 年至今國內外“大模型+機器人”的最新研究成果,從初步技術框架再到具體應用落地,基于 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 10|請務必仔細閱讀報告尾部的投資評級說明和聲明 大模型的機器人技術路線愈發明晰,通用人形機器人新紀元即將到來。圖 11:2023 年至今“大模型+機器人”發展進程 資料來源:各公司官網、西部證券研發中心整理 2.2.1 ChatGPT for Robotics:大模型賦能機器
35、人的初步探索:大模型賦能機器人的初步探索 2023 年年 2 月,微軟發布了一篇名為月,微軟發布了一篇名為ChatGPT for Robotics:Design Principles and Model Abilities的技術報告,闡述了的技術報告,闡述了 ChatGPT 賦能機器人的方法。賦能機器人的方法。ChatGPT 在機器人領域的應用主要體現在自然語言交互和自動化決策。在機器人領域的應用主要體現在自然語言交互和自動化決策。傳統上,機器人任務需要工程師在循環中編寫復雜的代碼并不斷進行迭代改進,但 ChatGPT 使得機器人能夠基于自然語言指令采取響應行動或是完成自動化決策。接入 Cha
36、tGPT 后,工程師只需構建底層庫函數及其描述,機器人就能基于底層函數來編寫代碼完成相關任務,從而減輕工程師的工作負擔。行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 11|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 12:傳統機器人任務需要工程師在循環中不斷改進 圖 13:接入 ChatGPT 后工程師無需在循環中調整 資料來源:ChatGPT for Robotics:Design Principles and Model Abilities,西部證券研發中心 資料來源:ChatGPT for Robotics:Design Principles and
37、 Model Abilities,西部證券研發中心 報告提出了一種提示工程設計原則和創建高級功能庫的策略,使得報告提出了一種提示工程設計原則和創建高級功能庫的策略,使得 ChatGPT 能夠適應能夠適應不同的機器人任務。不同的機器人任務。其具體步驟如下:(1)定義機器人功能庫函數,比如實現檢測物體、移動地盤等功能的函數;(2)編寫 Prompt,描述任務目標并明確可用的高級函數;(3)在仿真環境中運行并評估 ChatGPT 的代碼輸出,以保證模型能夠安全且完整地完成任務;(4)將算法部署至機器人上。圖 14:ChatGPT for Robotics 的設計原則 資料來源:ChatGPT for
38、 Robotics:Design Principles and Model Abilities,西部證券研發中心 2.2.2 PaLM-E:具身多模態視覺語言模型:具身多模態視覺語言模型,是,是具身智能領域的一具身智能領域的一次重大飛躍次重大飛躍 2023 年年 3 月,月,Google Robotics 團隊和柏林工業大學共同推出了具身多模態視覺語言團隊和柏林工業大學共同推出了具身多模態視覺語言模型模型(Visual Language Model,VLM)PaLM-E。PaLM-E 結合了 PaLM 大語言模型和Vision Transformer(ViT)模型,是當時最大規模的視覺語言模型
39、,總參數量高達 5620億,在 PaLM 的基礎上引入了多模態和具身化的概念,可實際應用于實體機器人,為大參數視覺與語言多模態模型如何結合具身智能提供了新思路。PaLM-E 采用端到端訓練采用端到端訓練,具,具有很強的泛化和遷移能力有很強的泛化和遷移能力。其主要架構思想是將連續的、可感知的觀察數據(如圖像、語言、狀態預測或其他傳感器數據等)注入到預訓練的大語言模型的嵌入空間內,使用編碼器提取特征,再通過映射器對齊特征,最終得到一系列相同緯度的 Token,從而實現推理和訓練,整個過程并不需要對場景的表示進行任何預處理。行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日
40、日 12|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 15:PaLM-E 主要架構 資料來源:PaLM-E:An Embodied Multimodal Language Model,西部證券研發中心 PaLM-E 在具有挑戰性和多樣化的移動操作任務中性能表現優異。在具有挑戰性和多樣化的移動操作任務中性能表現優異。在引導真實機器人執行遠距離操作任務的測試中,機器人被要求“從抽屜里拿一包薯片”,PaLM-E 指引機器人找到抽屜,打開抽屜并成功拿出薯片,即便在人為地干擾下依舊能夠成功完成任務,這體現出了 PaLM-E 具有很強的魯棒性。在引導真實機器人完成桌面操作任務的測試中,機器人被要求執行
41、一系列任務,如“將綠色圓形移到黃色六邊形上”、“將綠色星星移動到左上角”等,PaLM-E 均能準確識別顏色和形狀并成功完成任務指令。圖 16:PaLM-E 在復雜的移動操作任務表現出色 資料來源:PaLM-E:An Embodied Multimodal Language Model,西部證券研發中心 2.2.3 RT-2:全球首個:全球首個VLA多模態大模型多模態大模型,能夠理解視覺輸入,機器人模型里程碑,能夠理解視覺輸入,機器人模型里程碑 2023 年年 7 月,谷歌月,谷歌 DeepMind 推出推出 Robotics Transformer 2(RT-2),這是全球首個),這是全球首個
42、控制機器人的視覺控制機器人的視覺-語言語言-動作(動作(Vision-Language-Action,VLA)模型,該模型能夠從)模型,該模型能夠從網絡和機器人數據中學習知識,并將這些知識轉化為機器人控制的通用指令。網絡和機器人數據中學習知識,并將這些知識轉化為機器人控制的通用指令。RT-2 以以 PaLI-X 和和 PaLM-E 作為支柱,采用視覺語言模型進行機器人控作為支柱,采用視覺語言模型進行機器人控制。制。RT-2 以視覺-語言模型(VLMs)為基礎,將一個或多個圖像作為輸入,并生成一系列通常代表自然 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 13
43、|請務必仔細閱讀報告尾部的投資評級說明和聲明 語言文本的標記。此類 VLM 已在大規模網絡數據上成功訓練,用以執行視覺回答、圖像字幕或對象識別等任務。同時,RT-2 的泛化和涌現能力進一步提高,超越了其所接觸到的機器人數據的語義和視覺理解,包括解釋新命令并通過執行基本推理來響應用戶命令。與之前的基線相比(如 RT-1、VC-1 等),RT-2 的泛化性提高了約 3 倍以上。RT-2 表明視覺-語言模型(VLMs)可以轉變為更強大的視覺-語言-動作(VLA)模型,通過將 VLM預訓練與機器人數據相結合,能夠實現機器人的控制,使其完成推理、解決問題、解釋信息并在真實世界中執行各種任務,展現出了構建
44、通用型物理機器人的廣闊前景。圖 17:RT-2 架構 資料來源:RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Contro,l 西部證券研發中心 2.2.4 VoxPoser:實現零樣本機器人任務軌跡規劃:實現零樣本機器人任務軌跡規劃 2023 年年 7 月,斯坦福大學李飛飛團隊月,斯坦福大學李飛飛團隊提出提出 VoxPoser 智能系統智能系統,該系統將大模型接入至該系統將大模型接入至機器人,能夠在無需額外數據和訓練的情況下將復雜指令轉化為具體的行動規劃。機器人,能夠在無需額外數據和訓練的情況下將復雜
45、指令轉化為具體的行動規劃。VoxPoser 系統流程主要可以為三個步驟。1)輸入:給定環境信息以及需要執行的自然語言指令;2)處理:該部分由 LLM 和 VLM 兩部分組成,其中 LLM 根據輸入的信息內容編寫代碼,所生成的代碼再與 VLM 進行交互,并生成相應指令的操作指示地圖(3D Value Map),該操作指示地圖標記了“在哪里行動”以及“如何行動”;3)控制:將操作指示地圖輸入至動作規劃器中,以合成機器人最終需要執行的操作軌跡。傳統方法需要進行額外的預訓練,而 VoxPoser 系統通過大模型指引機器人與環境進行交互,有效解決了機器人訓練數據稀缺的問題,從而實現零樣本的日常操作任務軌
46、跡合成。行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 14|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 18:Voxposer 系統流程 資料來源:VoxPoser:Composable 3D Value Maps for Robotic Manipulation with Language Models,西部證券研發中心 2.2.5 RoboAgent:實現通用機器人小數據集的快速訓練:實現通用機器人小數據集的快速訓練 2023 年年 8 月,卡內基梅隆大學和月,卡內基梅隆大學和 Meta 研究人員發布了一款名為研究人員發布了一款名為 RoboAgent
47、 的人工智的人工智能代理機器人,其僅在能代理機器人,其僅在 7500 條軌跡數據上就能進行訓練并實現了條軌跡數據上就能進行訓練并實現了 12 種不同的復雜技能,種不同的復雜技能,包括上茶、物品拾取、烘焙、清潔廚房等日常任務。包括上茶、物品拾取、烘焙、清潔廚房等日常任務。RoboAgent 具有超高的智能化程度,可以通過圖像和語言等對其進行控制。具有超高的智能化程度,可以通過圖像和語言等對其進行控制。研究人員提出了多任務動作分塊 Transformer(MT-ACT)架構,通過語義增強和高效的策略表示來處理多模態、多任務的機器人數據集。RoboSet 數據集中包含了 7500 條軌跡,涵蓋了12
48、 中不同的技能和多個任務場景?;诖?,Robot Agent 可以使用有限的域內數據快速訓練機器人并依靠網絡免費數據來進行學習,這極大拓寬了機器人在家庭、醫院和其他公共場所等非結構化環境中的使用空間。圖 19:RoboAgent 采用的多任務動作分塊 MT-ACT 架構 資料來源:RoboAgent:Generalization and Efficiency in Robot Manipulation via Semantic Augmentations and Action Chunking,西部證券研發中心 2.2.6 RT-X:基于多個數據集的機器人通用大模型:基于多個數據集的機器人通用
49、大模型 2023 年年 10 月月 4 日,谷歌日,谷歌 DeepMind 在官網發布了機器人通用大模型在官網發布了機器人通用大模型 RT-X 并開放了訓并開放了訓 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 15|請務必仔細閱讀報告尾部的投資評級說明和聲明 練數據集練數據集 Open X-Embodiment。RT-X 由基于由基于 Transfomer 的的 RT-1-X 和視覺和視覺-語言語言-動作模型動作模型 RT-2-X 組成。組成。OpenX-Embodiment 訓練數據集是同類中最全面的機器人數據集,其涵蓋了 22 中不同類型的機器人數據,包
50、括了超 100 萬個場景的 500 余種技能、15 萬項任務。得益于 OpenX-Embodiment 數據集,RT-X 可以在無需任何訓練或極少訓練的情況下使得機器人適應更多非結構化的應用場景并完成特定的任務,比如倉庫搬運、防爆救險、家庭護理等。構建一個包含各種機器人示范的數據集是訓練通用型模型的關鍵步驟,因此 Open X-Embodiment 數據集對通用型機器人技術的發展起到了巨大的推動作用。RT-X 具有更高具有更高的涌現能力和泛化能力。的涌現能力和泛化能力?;邶嫶蟮臄祿?,RT-X 相較于原始模型表現出了更強的性能。RT-2-X 的泛化能力約為原始模型的 3 倍;RT-X 的涌現
51、能力約為 RT-2模型的 3 倍,且機器人可理解的動作指令從絕對位置(如桌子的左上角)拓展至相對位置(如可樂和杯子的中間)。圖 20:RT-X 架構 資料來源:Open X-Embodiment:Robotic Learning Datasets and RT-X Models,西部證券研發中心 2.2.7 Eureka:基于:基于GPT-4的人工智能代理的人工智能代理 2023 年年 10 月,英偉達發布月,英偉達發布 AI 系統系統 Eureka,該系統以,該系統以 GPT-4 提供支持,可支持機器人提供支持,可支持機器人實現實現 30 余種復雜動作。余種復雜動作。Eureka 系統采用動
52、態可解釋教學(系統采用動態可解釋教學(DIET)的訓練流程,大幅提高了訓練效率并縮短了)的訓練流程,大幅提高了訓練效率并縮短了開發周期。開發周期。在該過程中,機器人的行動會被記錄和分析并用于動作調整,從而能夠使機器人更快、更高效的完成任務。Eureka 的關鍵創新在于生成獎勵程序,其制定的獎勵程序在 80%的任務中都超過了人類專家編寫的獎勵程序,并使得機器人的平均性能提升了一半以上,這在機器人培訓領域是巨大的進步。圖 21:Eureka 訓練機械手臂完成高難度的轉筆動作 資料來源:Eureka:Human-Level Reward Design Via Coding Large Languag
53、e Models、西部證券研發中心 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 16|請務必仔細閱讀報告尾部的投資評級說明和聲明 2.2.8 RobotGPT:ChatGPT運用于機器人的框架運用于機器人的框架 2023 年年 12 月,三星電子中國研究院與清華大學、北京郵電大學等提出月,三星電子中國研究院與清華大學、北京郵電大學等提出 RobotGPT,探,探討討 ChatGPT 在機器人操控中的應用。該系統將環境線索轉換為自然語言,使得在機器人操控中的應用。該系統將環境線索轉換為自然語言,使得ChatGPT 能夠為機器人訓練并生成動作代碼,賦予了機器人使
54、用自然語言進行理性互動能夠為機器人訓練并生成動作代碼,賦予了機器人使用自然語言進行理性互動的能力。的能力。在在 RobotGPT 框架中,框架中,ChatGPT 分別扮演著決策機器人、評估機器人和糾正機器人三分別扮演著決策機器人、評估機器人和糾正機器人三種角色。種角色。首先,決策機器人基于提示生成相應的可執行代碼并逐行進行執行,若運行出現錯誤則提供錯誤原因以及發生錯誤的代碼行以便進行修改,直到代碼能夠成功運行;其次,通過評估機器人所生成的 Eval Code 模型進行可執行代碼的測試,若可執行代碼不能通過 Eval Code 測試,糾正機器人將會分析失敗原因并將其傳回決策機器人予以糾正;最后,
55、滿足評估條件的代碼將用于生成演示數據。經過訓練,訓練有素的智能體可以完美地部署真實機器人。圖 22:Robot-GPT 架構 資料來源:RobotGPT:Robot Manipulation Learning from ChatGPT,西部證券研發中心 2.2.9 EVE:依賴端到端神經網絡實現自主工作:依賴端到端神經網絡實現自主工作 2024 年年 2 月月 9 日,日,1X Technologies 在在 YouTube 上通過視頻展示了其人形機器人上通過視頻展示了其人形機器人 EVE能夠自主進行物品搬運、物品收納等簡單的日常工作。能夠自主進行物品搬運、物品收納等簡單的日常工作。EVE 實
56、現自主工作僅需依賴端到端神經網絡。實現自主工作僅需依賴端到端神經網絡。視頻中 EVE 的每一個動作均由其先進的視覺神經網絡進行精準操控,通過神經網絡接收圖像輸入并發出精確指令,從而控制駕駛、手臂、抓手、軀干以及頭部的各項動作。1X 的機器人不涉及固定算法,而是更多涉及學習,從而讓 AI 模型對世界有著更豐富的理解。1X 構建了一個包含 30 個 EVE 機器人演示的高質量、多樣化數據集以進行不同人物場景的機器人訓練,涵蓋清潔整理、物品拾取、與其他機器人或人類進行交互等多種場景。自 2022 年與 OpenAI 攜手合作以來,1X 不斷開發具身學習技術,將人工智能與機器人技術相結合,并積極制造和
57、訓練 EVE 和 NEO 機器人。目前,目前,EVE 已在美國和歐洲部分已在美國和歐洲部分地區投入商業化應用;雙足人形機器人地區投入商業化應用;雙足人形機器人 NEO 則仍在研發階段,預計將于則仍在研發階段,預計將于 2024 年正式發年正式發布,并在挪威和北美地區進行量產。布,并在挪威和北美地區進行量產。行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 17|請務必仔細閱讀報告尾部的投資評級說明和聲明 圖 23:EVE 可自主進行物品搬運收納 圖 24:EVE 可自主進行充電 資料來源:YouTube,西部證券研發中心 資料來源:YouTube,西部證券研發中心
58、 2.2.10 Figure 01:能聽、能說、能自主決策的人形機器人:能聽、能說、能自主決策的人形機器人 2024 年 1 月,Figure 發布視頻并宣布:Figure 01 通過學習人類煮咖啡的錄像,在 10 小時內學會制作咖啡的技能,且會自我糾錯,比如咖啡膠囊放得不對,它會矯正自己。2024 年年 3 月月 14 日,日,Figure 展示了其全尺寸人形機器人展示了其全尺寸人形機器人 Figure 01 與與 OpenAI 合作的最合作的最新進展。新進展。在 OpenAI 的視覺-語言大模型的強大支持之下,Figure 01 在沒有任何人類遠程控制的情況下能夠進行自主學習和自主決策,理
59、解人類自然語言命令并流暢地完成向人類遞蘋果、將黑色塑料袋收拾進筐子里、將杯子和盤子放置在瀝水架上等任務。端到端神經網絡端到端神經網絡+多模態大模型賦能,人形機器人多模態大模型賦能,人形機器人逐步向人類靠近逐步向人類靠近。Figure 的創始人表示,在本次合作中 OpenAI 負責提供視覺推理和語言理解,而 Figure 的神經網絡則提供了快速、低層次、靈巧的機器人動作。Figure01 的具體技術原理如下:將機器人攝像頭捕捉到的圖像以及機載麥克風捕獲到的語音等輸入到由 OpenAI 訓練的多模態大模型中,再由大模型對這些圖像和語音進行處理并通過文本到語音的方式反饋給人類;在此環節中,大模型負責
60、決定機器人應采取的閉環行為,從而將特定的神經網絡權重加載至 GPU 以執行響應策略并完成給定任務。據 Figure 的工程師介紹,在多模態大模型的加持下Figure01 目前可以完成描述視覺體驗、規劃未來行動、反思自身記憶以及闡述推理過程等任務,且速度愈來愈額逼近人類。圖 25:Figure01 技術原理 資料來源:新智元微信公眾號、西部證券研發中心 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 18|請務必仔細閱讀報告尾部的投資評級說明和聲明 4 月,月,優必選優必選發布發布 Walker S 通過百度智能云千帆通過百度智能云千帆 AppBuilder 平臺
61、接入文心大模型平臺接入文心大模型的演的演示視頻示視頻,能根據收集到的空間定位和語義信息,理解,能根據收集到的空間定位和語義信息,理解任務并任務并規劃,規劃,再再配合其機械臂與配合其機械臂與靈靈巧手巧手的精確操作,端到端地執行任務。的精確操作,端到端地執行任務。WalkerS 在獲得人類指令后,自主規劃和執行疊衣服,并遞給人類。特斯拉擎天柱此前也完成了一次靈巧疊衣服的任務,不過那仍是人類遠程操作的。未來人形機器人要解決和完成更多任務,依然需要自主規劃和實現任務目標,減少人類的參與或干預。圖 26:優必選 Walker S 根據語音指令完成疊衣服任務 資料來源:深圳發布微信公眾號、優必選科技視頻號
62、、西部證券研發中心 2.2.11 GR00T通用人形機器人基礎模型通用人形機器人基礎模型 2024 年 3 月 19 日,英偉達在 GTC 2024 大會上發布了 GR00T(Generalist Robot 00 Technology)通用人形機器人基礎模型,旨在進一步推動機器人和具身智能的突破。GR00T 可充當機器人的大腦,使其能夠學習技能以解決各種任務??沙洚敊C器人的大腦,使其能夠學習技能以解決各種任務。GR00T 能夠驅使機器人理解自然語言、視頻和人類演示等多模態指令,從而增強學習技能和處理任務的協調性和靈活性;使其模仿人類動作以更快融入現實世界并于人類進行互動。GR00T 基于英偉
63、達深度技術堆棧開發,開發者可以在 Isaac Lab 中進行模擬,在 OSMO 上進行訓練,并部署到 Jetson Thor 上。目前,GR00T 已與 1X Technologies、Agility Robotics、Apptronik、Boston Dynamics、Figure AI、Fourier Intelligence、Sanctuary AI、Unitree Robotics、XPENG Robotics 等公司展開合作。圖 27:GR00T 能夠理解語言、視頻和演示 圖 28:GR00T 基于 NVIDIA 深度技術堆棧開發 資料來源:GTC2024、西部證券研發中心 資料來源
64、:GTC2024、西部證券研發中心 行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 19|請務必仔細閱讀報告尾部的投資評級說明和聲明 三、三、建議關注建議關注 1)視覺感知:??低?、大華股份、虹軟科技、智微智能;)視覺感知:??低?、大華股份、虹軟科技、智微智能;2)機器人大模型:科大訊飛、商湯)機器人大模型:科大訊飛、商湯-W、云從科技、云從科技-UW。四、四、風險提示風險提示 人形機器人技術發展不及預期。人形機器人技術發展不及預期。人形機器人技術的發展面臨著多重挑戰,包括但不限于動力系統穩定性、感知與交互技術的精確度、人工智能算法的復雜決策能力以及自主導航
65、和適應性學習等關鍵技術瓶頸。這些問題的解決速度和成果直接影響到機器人能否按預期實現商業化應用和市場接受度。政策法規環境不確定風險。政策法規環境不確定風險。隨著人形機器人技術的快速發展,現行法律法規可能尚未跟上技術進步的步伐,導致在隱私保護、安全性標準、倫理道德約束以及知識產權保護等方面存在法律真空或限制,進而影響投資回報和項目可行性。供應鏈與制造成本上升風險。供應鏈與制造成本上升風險。人形機器人零部件供應的穩定性、核心部件(如伺服電機、傳感器、控制器等)以及新材料和先進制造技術的普及程度,都可能對機器人整體成本造成波動,高昂的制造成本可能導致產品定價超出市場承受范圍,進而抑制消費需求。國際競爭
66、加劇與技術替代風險。國際競爭加劇與技術替代風險。在全球范圍內,人形機器人產業的競爭日趨白熱化,技術創新速度快慢、競品出現以及其它形式的服務機器人或自動化解決方案的興起,都有可能擠壓人形機器人市場份額,導致前期投資回報率下降。此外,隨著技術演進,可能出現更符合市場需求或成本效益更優的替代方案,對人形機器人產品構成威脅。行業專題報告|計算機 西部證券西部證券 2024 年年 04 月月 17 日日 20|請務必仔細閱讀報告尾部的投資評級說明和聲明 西部證券西部證券投資評級說明投資評級說明 超配:超配:行業預期未來 6-12 個月內的漲幅超過市場基準指數 10%以上 行業評級行業評級 中配:中配:行
67、業預期未來 6-12 個月內的波動幅度介于市場基準指數-10%到 10%之間 低配:低配:行業預期未來 6-12 個月內的跌幅超過市場基準指數 10%以上 買入:買入:公司未來 6-12 個月的投資收益率領先市場基準指數 20%以上 公司評級公司評級 增持:增持:公司未來 6-12 個月的投資收益率領先市場基準指數 5%到 20%之間 中性:中性:公司未來 6-12 個月的投資收益率與市場基準指數變動幅度相差-5%到 5%賣出:賣出:公司未來 6-12 個月的投資收益率落后市場基準指數大于 5%報告中所涉及的投資評級采用相對評級體系,基于報告發布日后 6-12 個月內公司股價(或行業指數)相對
68、同期當地市場基準指數的市場表現預期。其中,A 股市場以滬深 300 指數為基準;香港市場以恒生指數為基準;美國市場以標普 500 指數為基準。分析師聲明分析師聲明 本人具有中國證券業協會授予的證券投資咨詢執業資格并注冊為證券分析師,以勤勉的職業態度、專業審慎的研究方法,使用合法合規的信息,獨立、客觀地出具本報告。本報告清晰準確地反映了本人的研究觀點。本人不曾因,不因,也將不會因本報告中的具體推薦意見或觀點而直接或間接收到任何形式的補償。聯系地址聯系地址 聯系地址:聯系地址:上海市浦東新區耀體路 276 號 12 層 北京市西城區豐盛胡同 28 號太平洋保險大廈 513 室 深圳市福田區深南大道
69、 6008 號深圳特區報業大廈 10C 聯系電話:聯系電話:021-38584209 免責聲明免責聲明 本報告由西部證券股份有限公司(已具備中國證監會批復的證券投資咨詢業務資格)制作。本報告僅供西部證券股份有限公司(以下簡稱“本公司”)機構客戶使用。本報告在未經本公司公開披露或者同意披露前,系本公司機密材料,如非收件人(或收到的電子郵件含錯誤信息),請立即通知發件人,及時刪除該郵件及所附報告并予以保密。發送本報告的電子郵件可能含有保密信息、版權專有信息或私人信息,未經授權者請勿針對郵件內容進行任何更改或以任何方式傳播、復制、轉發或以其他任何形式使用,發件人保留與該郵件相關的一切權利。同時本公司
70、無法保證互聯網傳送本報告的及時、安全、無遺漏、無錯誤或無病毒,敬請諒解。本報告基于已公開的信息編制,但本公司對該等信息的真實性、準確性及完整性不作任何保證。本報告所載的意見、評估及預測僅為本報告出具日的觀點和判斷,該等意見、評估及預測在出具日外無需通知即可隨時更改。在不同時期,本公司可能會發出與本報告所載意見、評估及預測不一致的研究報告。同時,本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。本公司不保證本報告所含信息保持在最新狀態。對于本公司其他專業人士(包括但不限于銷售人員、交易人員)根據不同假設、研究方法、即時動態信息及市場表現,發表的與本報告不一致的分析評論或交易觀點,本公司
71、沒有義務向本報告所有接收者進行更新。本公司對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司力求報告內容客觀、公正,但本報告所載的觀點、結論和建議僅供投資者參考之用,并非作為購買或出售證券或其他投資標的的邀請或保證??蛻舨粦员緢蟾嫒〈洫毩⑴袛嗷蚋鶕緢蟾孀龀鰶Q策。該等觀點、建議并未考慮到獲取本報告人員的具體投資目的、財務狀況以及特定需求,在任何時候均不構成對客戶私人投資建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素,必要時應就法律、商業、財務、稅收等方面咨詢專業財務顧問的意見。本公司以往相關研究
72、報告預測與分析的準確,不預示與擔保本報告及本公司今后相關研究報告的表現。對依據或者使用本報告及本公司其他相關研究報告所造成的一切后果,本公司及作者不承擔任何法律責任。在法律許可的情況下,本公司可能與本報告中提及公司正在建立或爭取建立業務關系或服務關系。因此,投資者應當考慮到本公司及/或其相關人員可能存在影響本報告觀點客觀性的潛在利益沖突。對于本報告可能附帶的其它網站地址或超級鏈接,本公司不對其內容負責,鏈接內容不構成本報告的任何部分,僅為方便客戶查閱所用,瀏覽這些網站可能產生的費用和風險由使用者自行承擔。本公司關于本報告的提示(包括但不限于本公司工作人員通過電話、短信、郵件、微信、微博、博客、
73、QQ、視頻網站、百度官方貼吧、論壇、BBS)僅為研究觀點的簡要溝通,投資者對本報告的參考使用須以本報告的完整版本為準。本報告版權僅為本公司所有。未經本公司書面許可,任何機構或個人不得以翻版、復制、發表、引用或再次分發他人等任何形式侵犯本公司版權。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并注明出處為“西部證券研究發展中心”,且不得對本報告進行任何有悖原意的引用、刪節和修改。如未經西部證券授權,私自轉載或者轉發本報告,所引起的一切后果及法律責任由私自轉載或轉發者承擔。本公司保留追究相關責任的權力。所有本報告中使用的商標、服務標記及標記均為本公司的商標、服務標記及標記。本公司具有中國證監會核準的“證券投資咨詢”業務資格,經營許可證編號為:91610000719782242D。