1、本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 1 人形機器人系列研究(一)人形機器人“大腦”:神機妙算,加速進化 2025 年 04 月 02 日 具身智能有望開啟萬億級藍海市場。在當前時點復盤機器人與人工智能的發展歷程,機器人已經進入具身智能時代,與此同時,人工智能也將走向“物理 AI”發展階段。人形機器人是兩者匯聚的交點,也是具身智能時代的臨界點,有望成為新一代智能終端,并開啟萬億級藍海市場。具身智能大模型為機器人“大腦”的核心。具身智能需要本體、智能體、數據、學習和進化架構四大核心要素,通用機器人本體又可以分為“大腦”、“小腦”和“肢體”三部分,其中,人形機器
2、人“大腦”的核心為人工智能大模型技術,通過多模態模型建模、強化學習、地圖創建和數據訓練,能夠管理和協調機器人的各種功能。大模型目前較為擅長需求理解、任務分解等高層級控制任務,規劃級以下的控制規劃屬于傳統機器人控制規劃的范疇,更適合傳統機器人更成熟的高頻控制方法。多模態大模型為機器人高層級控制帶來技術突破。多模態大模型具有理解圖像、場景文本、圖表、文檔以及多語言、多模態理解的強大能力,可以直接用于具身智能對環境的理解,并通過提示詞使之輸出結構化內容如控制代碼、任務分解等指令語言、圖片、視頻等。國內外科技巨頭與研究團隊入局,具身大模型成果涌現。谷歌、特斯拉、微軟、英偉達、李飛飛團隊、特斯拉、字節跳
3、動等國內外科技巨頭和科研機構爭相入局,具身大模型成果不斷涌現:谷歌推出 RT-1、PaLM-E、RT-2、RT-X 等多個具身大模型;特斯拉堅持端到端算法路線,實現感知決策一體化并遷移至人形機器人;英偉達推出物理 AI 開發平臺 Nvidia Cosmo 及一系列世界基礎模型;國內大廠字節 GR-2 在動作預測和泛化能力上表現出色。具身大模型目前在泛化性、實時性、數據采集等方面存在挑戰。當前的具身大模型通常存在泛化能力弱的問題,已經在特定場景達成較高成功率的模型在切換至不同場景時成功率大幅降低。實時性較差則體現在輸出運動頻率較低,使得機器人反射弧較長,低于人類和許多實際應用場景的需求。數據采集
4、方面的挑戰則體現在真實數據收集效率偏低、收集難度和成本偏高,合成數據的使用中則需要避免生成數據與真實數據差距過大或者樣式單一。云計算與邊緣計算作為“大腦”的外延,保障機器人“大腦”高效運轉。云計算是為機器人等終端設備提供算力的核心方式,云計算能夠為 AI、大模型與機器人的結合提供強大的計算能力和數據存儲空間,以及能夠隨時隨地獲得所需資源和算法支持的靈活性、可拓展性;此外,邊緣計算為云計算的數據傳輸成本、時延、安全性等方面的局限性提供了補充,為具身智能人形機器人落地保駕護航。投資建議:2025 年人形機器人行業進入小批量量產階段,全球將有數千臺人形機器人進入工廠場景訓練,加速人形機器人“大腦”的
5、發展。我們認為,目前人形機器人硬件端技術路線趨向收斂,軟件端“大腦”智能水平的提升有望成為人形機器人自主性與泛化性提升的核心推動力。建議關注:1)“大腦”領域,布局大模型與機器人業務相結合的公司,如科大訊飛、中科創達、螢石網絡、柏楚電子、華依科技、芯動聯科、漢王科技等;2)AI+機器人領域,具備高壁壘的公司,如 3D 視覺領域奧比中光、大腦域控制芯片天準科技、新型傳感器峰岹科技等;3)同步受益的機器人本體公司,如總成方案三花智控、拓普集團等。風險提示:機器人算法迭代進步速度不及預期;人形機器人落地場景實際需求不及預期;市場競爭加劇。分析師 汪海洋 執業證書:S0100522100003 郵箱:
6、 分析師 呂偉 執業證書:S0100521110003 郵箱:lvwei_ 分析師 李哲 執業證書:S0100521110006 郵箱:lizhe_ 相關研究 1.人形機器人產業周報:海外更新催化不斷,深圳近期將發布人形機器人專項政策-2025/02/25 2.人形機器人產業周報:宇樹科技 G1 靈動升級,軟通動力發布首款人形機器人-2025/01/19 3.人形機器人產業周報:特斯拉更新機器人量產目標,OpenAI 重啟機器人項目-2025/01/13 4.人形機器人產業周報:廣汽發布人形機器人GoMate,星動紀元更新大模型進展-2024/12/29 5.人形機器人產業 2025 年度投資
7、策略:量產元年,明日在途-2024/12/19 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 2 目錄 1 具身智能打開萬億藍海市場.3 2 機器人“大腦”的時代機遇:具身智能大模型.5 2.1 多模態大模型為機器人高層級控制帶來技術突破.5 2.2 國內外科技巨頭與機構入局,具身大模型成果涌現.7 2.3 具身大模型的關鍵挑戰.18 3 機器人“大腦”的外延:云計算與邊緣計算.20 3.1 機器人“大腦”的運行保障:云計算.20 3.2 機器人集群智能的核心:邊緣計算.22 4 投資建議.24 5 風險提示.25 插圖目錄.26 表格目錄
8、.26 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 3 1 具身智能打開萬億藍海市場 復盤機器人發展歷程,具身智能時代已經到來。傳統的工業機器人、協作機器人等需要按照提前設定好的程序步驟進行固定的工作,或者依靠傳感器部件調整自身行為。通過搭載人工智能模型,具身智能機器人則有著智能化程度高、工作場景限制小、能夠自主規劃復雜工作的特點。表1:智能機器人發展歷程 時間 發展階段 智能化程度 工作場景 工作任務 成熟度 代表產品 2008 年以前 工業機器人 產線自動化 固定 簡單重復工作 成熟期 機械臂、軌道機器人 2008-2015 年 協作
9、機器人 機器智能 可移動 人機協作完成復雜工作 成長期 物流機器人等 2015-2023 年 智能機器人 機器智能 可移動 自主完成簡單工作 成長期 手術、陪護機器人等 2023 年及以后 具身智能機器人 人工智能 可移動 自主規劃復雜工作 培育期 通用人形機器人 資料來源:奧比中光官網,甲子光年,民生證券研究院整理 具身智能機器人已經成為由“本體”和“智能體”耦合而成且能夠在復雜環境中執行任務的智能系統。據高新興機器人,具身智能機器人能夠聽懂人類語言,然后分解任務,規劃子任務,在移動中識別物體,與環境交互,最終完成相應任務。當前,已有不少研究者嘗試將多模態的大語言模型與機器人結合起來,通過將
10、圖像、文字、具身數據聯合訓練,并引入多模態輸入,增強模型對現實中對象的理解,幫助機器人處理具身推理任務。圖1:具身智能機器人是一個智能系統 資料來源:高新興機器人,民生證券研究院 復盤人工智能發展歷程,下一發展階段將是物理 AI。在 2025 CES 的演講上,黃仁勛表示,AI 的發展有四個階段,物理 AI 將是 AI 發展的下一個階段,而通用機器人將是物理 AI 的核心載體。通用機器人給予人工智能身體,讓人工智能有了直接改變物理世界的能力。AI 對機器人的賦能主要集中在感知與決策層,使機器人能夠與環境交互感知,自主規劃決策行動。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必
11、閱讀最后一頁免責聲明 證券研究報告 4 圖2:英偉達定義的人工智能發展四階段 資料來源:2025CES 黃仁勛演講,民生證券研究院 站在具身智能時代的臨界點,人形機器人有望成為新一代智能終端,并開啟萬億級藍海市場。人形機器人兼具仿人外形與人工智能,具備操作人類生產生活工具的可能性,有望成為繼個人計算機、手機和智能汽車之后的新一代智能終端。馬斯克于 2023 年特斯拉股東會議上預測,未來全球的人形機器人數量有望達到 100億到 200 億臺,在人類生活和工業制造場景中得到應用,人形機器人將開啟萬億級別藍海市場。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明
12、證券研究報告 5 2 機器人“大腦”的時代機遇:具身智能大模型 2.1 多模態大模型為機器人高層級控制帶來技術突破 具身智能指的是機器人通過在物理世界和數字世界的學習和進化,達到理解世界、互動交互并完成任務的目標。據稚暉君,具身智能需要本體、智能體、數據、學習和進化架構四大核心要素。圖3:具身智能需要本體、智能體、數據、學習和進化架構四大核心要素 資料來源:智元機器人稚暉君演講,民生證券研究院 一般來講,我們可以將一臺通用人形機器人本體分為“大腦”、“小腦”和“肢體”三部分,分別對應決策交互模塊、運動控制模塊和執行模塊。其中,人形機器人“大腦”的核心為人工智能大模型技術,通過多模態模型建模、強
13、化學習、地圖創建和數據訓練,能夠管理和協調機器人的各種功能?!按竽X”是機器人智能與高級決策的核心,也是具身智能時代機器人區別于程序控制機器人(傳統工業機器人、協作機器人等)的關鍵環節。圖4:“大腦”、“小腦”及“肢體”三大部分組成人形機器人 資料來源:人形機器人產業發展研究報告(2024 年)中國信通院,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 6 讓機器人“大腦”實現突破最核心的推動力是大模型實現涌現、成為真正的生產力。大模型的能力與機器人的需求十分契合,只需要告訴機器人它要做的任務是什么,機器人就會理解需要做的事情,
14、拆分任務動作,生成應用層控制指令,并根據任務過程反饋修正動作,最終完成人類交給的任務,整個過程基本不需要或者僅需少量人類的介入和確認,基本實現了機器人自主化運行,無需掌握機器人專業操作知識的機器人應用工程師介入。圖5:大模型推動機器人產業進入具身智能時代 資料來源:機器人大講堂微信公眾號,民生證券研究院 大模型目前較為擅長需求理解、任務分解等高層級控制任務。根據基于大模型的具身智能系統綜述,傳統機器人的分層控制可以分為規劃級、動作級、基元級、伺服級四個層次,具身智能機器人的控制一般可以粗略地分為高層和低層,其中高層負責全局、長期的目標,包括需求級、任務級、規劃級和動作級;低層負責具體操作與及時
15、反饋,包括基元級與伺服級。與傳統機器人相比,具身智能機器人增加了需求級與任務級的控制。雖然大模型具有豐富常識與較強的推理能力,但精確性、實時性較差,所以目前往往不會直接參與機器人的低層次控制,而是通過需求理解、任務規劃、動作生成等方式進行較高層級的控制。規劃級以下的控制規劃屬于傳統機器人控制規劃的范疇,更適合傳統機器人更成熟的高頻控制方法。圖6:具身智能系統的控制層級 資料來源:王文晟等基于大模型的具身智能系統綜述,民生證券研究院 多模態大模型突破單一模態大模型的局限性,強化了機器人多模態信息整合、行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報
16、告 7 復雜任務處理等泛化能力,是人形機器人大模型的技術支撐。語言、圖片、視頻等單一模態大模型以大語言模型(LLM)為基礎,將強大的 LLM 作為“大腦”來執行多模態任務。但 LLM 只能理解離散文本,在處理多模態信息時不具有通用性。另一方面,大型視覺基礎模型在感知方面進展迅速,但推理方面發展緩慢。由于兩者的優缺點可以形成巧妙的互補,單模態 LLM 和視覺模型同時朝著彼此運行,結合上部分的圖像、視頻和音頻等等模態,最終帶來了多模態大語言模型(MLLM)的新領域。形式上,它指的是基于 LLM 的模型,該模型能夠接收多模態信息并對其進行推理。從發展人工通用智能的角度來看,MLLM 可能比 LLM
17、向前邁出一步。MLLM 更加符合人類感知世界的方式,提供了更用戶友好的界面(可以多模態輸入),是一個更全面的任務解決者,不僅僅局限于 NLP 任務。圖7:MLLM 的模型結構 資料來源:Duzhen ZhangMM-LLMs:Recent Advances in MultiModal Large Language Models,民生證券研究院 2.2 國內外科技巨頭與機構入局,具身大模型成果涌現 具身智能機器人操作系統有望推動人機交互的革命和人形機器人商業化落地進程,成為國內外科技巨頭和科研機構的兵家必爭之地:1)微軟:發表論文ChatGPT for Robotics等系列論文探究使用 GPT
18、 控制機器人,微軟建立高級機器人 API 或函數庫(技能庫),用戶使用自然語言描述需求后,GPT 靈活選用已有 API 或自行編程完成任務;2)谷歌:連續發布 SayCan、Palm-E、RoboCat、RT-1、RT-2、RT-X 等多個具身智能大模型,探究不同具身智能機器人操作系統的技術路線,包括使用真實數據訓練的 VLA 路線以及通過合成數據訓練的路線等;3)英偉達:在 2025CES 上提出用于加速物理 AI 開發的平臺 Nvidia Cosmo 及一系列世界基礎模型,世界基礎模型可以預測和生成虛擬環境未來狀態的物理感知視頻的神經網絡,以幫助開發者構建新一代機器人;4)李飛飛團隊:發布
19、 VoxPoser 系統,通過 3D Value Map+LLM+VLM 相行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 8 結合的方式,根據用戶自然語言直接輸出運動軌跡操控機器完成任務;5)特斯拉:Tesla Optimus 能夠完成分揀物品、做瑜伽等操作,其神經網絡訓練是完全端到端的,即直接從視頻輸入中獲取信息,并輸出控制指令;6)國內團隊:智元機器人、字節跳動、科大訊飛等眾多國內廠商已經推出具身智能系統或機器人產品。圖8:全球前沿具身智能大模型或機器人操作系統 資料來源:甲子光年微信公眾號,民生證券研究院 目前的具身智能架構分為端到端
20、模型與凍結參數的大模型結合基礎模型。端到端的架構可以直接從輸入數據到目標結果,不需要進行提示詞工程,較為簡潔高效,往往在規劃級、動作級中使用;凍結參數的大模型結合基礎模型使用的大模型通常是在廣泛的數據上預訓練好的,在利用大模型的強大能力的同時保留了對特定任務進行微調的靈活性,在需求級、任務級中使用較多。使用預訓練模型可以顯著減少訓練時間和所需的數據量,普遍適用于數據較為稀缺的任務。圖9:具身智能的不同架構舉例 資料來源:王文晟等基于大模型的具身智能系統綜述,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 9 2.2.1 谷歌:
21、SayCan、RT-1、PaLM-E、RT-2 到 RT-X 1)SayCan:定位 High-Level,Do As I Can,Not As I Say 2022 年 4 月發布,SayCan 模型的核心出發點是為機器人提供既有用又可行的行動指引。PaLM-E 雖然可以將任務拆分為符合語義邏輯的子任務,但是無法判斷其所設定的子任務是否能在現實世界中執行。究其原因在于,大語言模型缺少對真實物理世界的客觀原理的深刻理解與經驗參考,其生成的子任務雖合邏輯,但是機器人在執行過程中可能會遇到無法順利操作的困難。以“我把飲料灑了,你能幫忙嗎?”為例,現有的大語言模型可能會回答“你可以試試用吸塵器”、“
22、對不起,我不是故意灑的”,雖然這些回應聽起來很合理,但當前環境中的機器人并不具備使用吸塵器的能力,亦或者當前環境中根本沒有吸塵器。圖10:大語言模型對“我把飲料灑了,你能幫忙嗎?”的回復 資料來源:Michael Ahn 等Do As I Can,Not As I Say:Grounding Language in Robotic Affordances,民生證券研究院 SayCan 嘗試將大模型 LLM 與物理任務聯系起來并解決上述問題。其中,Say代表大模型 LLM,用于輸出可用的高層級運動指令,Can 代表機器人在當前環境下能做的事情,二者通過值函數(Value Function)的方式
23、結合起來,共同決定選擇哪條指令用于實際執行。圖11:SayCan 對于“我把飲料灑了,你能幫忙嗎?”的決策流程 資料來源:Michael Ahn 等Do As I Can,Not As I Say:Grounding Language in Robotic Affordances,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 10 2)RT-1:開啟 Transformer 與機器人的結合 2022 年,Google 提出 Transformer 架構。Transformer 最初是為了解決翻譯問題,僅僅依賴于注意力機制就可
24、處理序列數據。這個新的深度學習模型的訓練耗時短,并且對大數據或者有限數據集均有良好表現。由于 Transformer 引入了注意力機制和殘差鏈接,也就是所謂“Attention Is All You Need”,因此其計算效率更高,能夠加速訓練和推理速度。圖12:Transformer 核心架構 圖13:自注意力機制示意圖 資料來源:Ashish Vaswani,Noam ShazeerAttention Is All You Need,民生證券研究院 資料來源:Ashish Vaswani,Noam ShazeerAttention Is All You Need,民生證券研究院 2022
25、年 12 月,Google 在 RT-1 上首先開啟了 Transformer 和機器人的結合。RT-1 的主體是預訓練的視覺模型加上用解釋器處理過的語言指令,兩部分再一起通過 transformer 架構輸出機器人的動作指令,學習范式是模仿學習。訓練數據是在 google 實驗室中的兩個廚房環境記錄的操控移動機械臂完成抓取與放置動作時的記錄,數據包括文字指令、過程中的機器人視覺圖像、每一幀圖像對應的機器人的動作指令(底盤速度,機械臂末端速度)等。圖14:RT-1 結構概覽 資料來源:Anthony BrohanRT-1:Robotics Transformer for real-world
26、control at scale,民生證券研究院 RT-1 的核心模型架構是將指令和圖像 token 化,再做 token 的壓縮并輸出動作。RT-1 將機器人動作的每個維度進行均勻離散化,并將動作詞元化,然后使用監督學習的損失進行訓練。為了使視覺-語言模型能夠控制機器人,還差對動作行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 11 控制這一步。該研究采用了非常簡單的方法:他們將機器人動作表示為另一種語言,即文本 token,并與 Web 規模的視覺-語言數據集一起進行訓練。圖15:機器人動作數字 token 化 資料來源:Yevgen C
27、hebotar,Tianhe YuRT-2:New model translates vision and language into action,民生證券研究院 3)PaLM-E:多模態理解能力的飛躍 2023 年 3 月發布,PaLM-E 展示了將圖像和語言大模型的知識遷移到機器人領域的路徑之一。PaLM-E 融合了 Google 當時最新的大型語言模型 PaLM 和最先進的視覺模型 ViT-22B,在純文本的基礎上將輸入數據擴充至其他多模態數據(主要來自于機器人的傳感器,比如圖像、機器人狀態、場景環境信息等),并輸出以文本形式表示的機器人運動指令,進行端到端的訓練。圖16:PaLM-E
28、 模型架構總覽 資料來源:Danny Driess,Pete FlorencePaLM-E:An embodied multimodal language model,民生證券研究院 PaLM-E 可以把高層級的任務拆分成若干個在語義上符合邏輯的子任務,再根據已采取步驟的歷史記錄和當前對場景的圖像觀察來生成計劃的下一步。以“把抽屜里的薯片拿來給我”為例,PaLM-E 模型將輸出以下機器人的運動指令:1、移動到抽屜旁邊;2、打開抽屜;3、把薯片從抽屜里拿出來;4、把薯片帶到用戶旁邊;5、放下薯片;6、任務結束。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明
29、證券研究報告 12 圖17:在 PaLM-E 的引導下,機器人具備拆解和執行長程任務的能力 資料來源:Danny Driess,Pete FlorencePaLM-E:An embodied multimodal language model,民生證券研究院 4)RT-2:結合 RT-1 與 PaLM-E,首個 VLA 大模型 2023 年 7 月發布,RT-2 在 RT-1 的基礎上升級,可以直接理解復雜指令從而直接操控機械臂。RT-2 的目標是將 VLM 具備的數學、推理、識別等能力和 RT-1 的操作能力結合,能夠用復雜文本指令直接操作機械臂,通過自然語言就可得到最終的動作。最終,Goo
30、gle 提出一個在機器人軌跡數據和互聯網級別的視覺語言任務聯合微調視覺-語言模型的學習方式。這類學習方法產生的模型被稱為視覺-語言-動作(VLA)模型,具有泛化到新對象的能力、解釋命令的能力以及根據用戶指令思維推理的能力。圖18:RT-2 全流程概覽 資料來源:Anthony BrohanRT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control,民生證券研究院 RT-2將輸出的動作進行和RT-1 相同的離散化操作后將詞元加入視覺-語言模型原先的詞表中,可以把動作詞元視為另外一種語言進行處理,無需改變
31、原有視覺-語言模型結構設計。由于 RT-2 已經在海量的視覺問答任務中進行預訓練,在對圖片和任務指令的理解上有更加豐富的經驗,在任務集合上具有更強的泛化能力。例如在下圖的拾取、移動、放置等具體任務中,智能體能夠精準識別任務需求并且以過往訓練經驗為基礎準確地完成。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 13 圖19:PaLM-E、RT-1 與 RT-2 邏輯關系 圖20:RT-2 能夠推廣到各種需要推理、符號理解和人類識別的現實世界情況 資料來源:CSDN,民生證券研究院 資料來源:Anthony BrohanRT-2:Vision-L
32、anguage-Action Models Transfer Web Knowledge to Robotic Control,民生證券研究院 5)RT-X 系列:數據驅動泛化性及成功率躍升 2023 年 10 月發布,RT-X 系列模型核心是讓機器人學習更多機器人的“動作”,達到更強的任務泛化和更高的任務成功率。谷歌構建 Open X-Embodiment Dataset 數據庫,覆蓋從單機械臂到雙手機器人和四足機器人等 22 個類型的機器人的527個機器人的“動作”。與RT-1 相比,RT-1-X任務完成的成功率提升50%;與 RT-2 相比,RT-2-X 展現出更好的任務泛化能力,RT-
33、2-X 的成功率是其之前的最佳模型 RT-2 的三倍,這也說明了,與其他平臺的數據進行聯合訓練可以為 RT-2-X 賦予原始數據集中不存在的額外技能,使其能夠執行新任務。圖21:RT-X Open X-Embodiment Dataset 數據集 資料來源:Open X-Embodiment CollaborationOpen X-Embodiment:Robotic Learning Datasets and RT-X Models,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 14 圖22:RT-X 大模型工作原理 資料
34、來源:Open X-Embodiment CollaborationOpen X-Embodiment:Robotic Learning Datasets and RT-X Models,民生證券研究院 6)RoboCat:機器人的自我提升 2023 年 6 月發布,RoboCat 可以通過自己生成訓練數據集的方式更快完善其能力。谷歌將 Gato 的架構與大型訓練數據集相結合,該數據集包含各種機器人手臂的圖像序列和動作,可解決數百個不同的任務。在第一輪培訓之后,RoboCat 進入了一個“自我提升”的培訓周期,其中包含一系列以前看不見的任務,每個新任務的學習遵循五個步驟:1)使用由人類控制的機
35、械臂收集 100-1000 個新任務或機器人的演示;2)在這個新任務/分支上微調 RoboCat,創建一個專門的衍生代理;3)衍生代理在這個新任務/手臂上平均練習 10,000 次,生成更多訓練數據;4)將演示數據和自生成數據整合到 RoboCat 現有的訓練數據集中;5)在新的訓練數據集上訓練新版本的 RoboCat。谷歌提出,RoboCat 只需 100 個演示即可完成一項新任務,這種能力將有助于加速機器人研究,因為它減少了對人類監督訓練的需求,是創建通用機器人的重要一步。圖23:RoboCat 工作原理 資 料 來 源:The RoboCat team RoboCat:A Self-Im
36、proving Generalist Agent for Robotic Manipulation,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 15 2.2.2 特斯拉:堅持端到端算法路線,感知決策一體化 FSD 全稱 Full Self-Driving(完全自動駕駛),是特斯拉研發的自動化輔助駕駛系統,目標是實現 L5 級別的自動駕駛。FSD V12(Supervised)是全新的“端到端自動駕駛”,模型架構發生了重大變化。據特斯拉 CEO 埃隆馬斯克表示,特斯拉 FSD V12(Supervised)需要人工干預的頻率
37、只有 FSD V11 的百分之一。FSD V12(Supervised)完全采用神經網絡進行車輛控制,從機器視覺到驅動決策都將由神經網絡進行控制。該神經網絡由數百萬個視頻片段訓練而成,取代了超過 30 萬行的 C+代碼。FSD V12(Supervised)減少了車機系統對代碼的依賴,使其更加接近人類司機的決策過程。圖24:FSD V12(Supervised)虛擬界面顯示 圖25:自動駕駛的六個等級 資料來源:特來訊,民生證券研究院 資料來源:SAE,華為云社區,民生證券研究院 FSD V12 為首個端到端自動駕駛系統,實現感知決策一體化。特斯拉 FSD v12采用端到端大模型,消除了自動駕
38、駛系統的感知和定位、決策和規劃、控制和執行之間的斷面,將三大模塊合在一起,形成了一個大的神經網絡,直接從原始傳感器數據到車輛操控指令,簡化了信息傳遞過程,因而減少了延遲和誤差,提高了系統的敏捷性和準確性。FSD V12 能夠模擬人類駕駛決策,成為自動駕駛領域全新發展路徑。FSD V12 也被稱為“Baby AGI(嬰兒版通用人工智能)”,旨在感知和理解現實世界的復雜性。圖26:Baby AGI 架構 資料來源:汽車測試網,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 16 特斯拉將車端 FSD 遷移至人形機器人。端到端算法從
39、汽車自動駕駛遷移至人形機器人幾乎不需要做太多額外工作,車本身就是一種機器人。早期的特斯拉Optimus 機器人使用了與汽車完全相同的計算機和攝像頭,通過讓汽車的神經網絡在機器人上運行,它在辦公室里走動時仍試圖識別“可駕駛空間”,而實際上它應該識別的是“可行走空間”。這種通用化能力表明了很多技術是可以遷移的,雖然需要一些微調,但大部分系統和工具都是通用的。圖27:特斯拉 Optimus 機器人避障行走 資料來源:tesla,民生證券研究院 2.2.3 字節 GR-2:高效動作預測與泛化能力 GR-2 的訓練包括預訓練和微調兩個過程。GR-2 在 3800 萬個互聯網視頻片段上進行生成式訓練,也因
40、此得名 GR-2(Generative Robot 2.0)。這些視頻來自學術公開數據集,涵蓋了人類在不同場景下(家庭、戶外、辦公室等)的各種日?;顒?,以期迅速學會人類日常生活中的各種動態和行為模式。這種預訓練方式使 GR-2 具備了學習多種操作任務和在多種環境中泛化的潛能。龐大的知識儲備,讓 GR-2 擁有了對世界的深刻理解。在微調階段,GR-2 通過幾項關鍵改進提升了其在實際任務中的表現。首先,GR-2 引入數據增強技術,通過改變訓練數據中的背景和物體,使其在未見環境下更具泛化能力。此外,模型通過多視角訓練,利用不同角度的視覺數據,增強了其在復雜場景中的操作靈活性和準確性。為了保證動作的流
41、暢性,GR-2 使用了條件變分自編碼器(cVAE),生成連續、平滑的動作序列,確保任務執行時的動作更加高效和精準。在經歷大規模預訓練后,通過在機器人軌跡數據上進行微調,GR-2 能夠預測動作軌跡并生成視頻。GR-2 的視頻生成能力,讓它在動作預測方面有著天然的優勢,顯著提高了準確率。它能夠通過輸入一幀圖片和一句語言指令,預測未來的視行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 17 頻,進而生成相應的動作軌跡。如下圖所示,只需要輸入一句語言指令:“pick up the fork from the left of the white pla
42、te”,就可以讓 GR-2 生成動作和視頻??梢钥吹?,機械臂從白盤子旁邊抓起了叉子。圖 29 右圖中預測的視頻和真機的實際運行也相差無幾。圖28:GR-2 視頻-語言模型與視頻-語音-動作模型 圖29:真機預測結果與模擬視頻預測結果對比 資料來源:Chi-Lam Cheang 等 GR-2:A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation,民生證券研究院 資料來源:Chi-Lam Cheang 等 GR-2:A Generative Video-Language-Ac
43、tion Model with Web-Scale Knowledge for Robot Manipulation,民生證券研究院 GR-2 的強大之處不僅在于它能夠處理已知任務,更在于其面對未知場景和物體時的泛化能力。無論是全新的環境、物體還是任務,GR-2 都能夠迅速適應并找到解決問題的方法。在多任務學習測試中,GR-2 能夠完成 105 項不同的桌面任務,平均成功率高達 97.7%。此外,GR-2 還能夠與大語言模型相結合,完成復雜的長任務,并與人類進行互動,并可以魯棒地處理環境中的干擾,并通過適應變化的環境成功完成任務。在實際應用中,GR-2 相比前一代的一個重大突破在于能夠端到端地
44、完成兩個貨箱之間的物體揀選。無論是透明物體、反光物體、柔軟物體還是其他具有挑戰性的物體,GR-2 均能準確抓取。這展現了其在工業領域和真實倉儲場景的潛力。除了能夠處理多達 100 余種不同的物體,如螺絲刀、橡膠玩具、羽毛球,乃至一串葡萄和一根辣椒,GR-2 在未曾見過的場景和物體上也有著出色的表現。圖30:GR-2 完成流暢端到端物體揀選示意圖 圖31:GR-2 在實驗中順利完成 122 項物體揀選,其中過半物體 GR-2 未曾見過 資料來源:GR-2 官方項目網站,民生證券研究院 資料來源:GR-2 官方項目網站,民生證券研究院 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務
45、必閱讀最后一頁免責聲明 證券研究報告 18 2.3 具身大模型的關鍵挑戰 2.3.1 關鍵挑戰一:泛化性弱 當前的具身大模型面臨未知環境和任務時,通常存在泛化能力弱的問題。具身任務往往涉及多樣的實體類型和動態的環境變化,當智能體和環境的動力學參數發行改變,目前的具身策略將很難直接適用。以 RT-2 為例,在谷歌山景城辦公室的廚房測試中,RT-2 展現了極高的任務執行成功率(近 98%),然而一旦換到施工工地、嘈雜后廚等復雜場景,成功率便驟降至 30%左右。泛化性不足的原因有多個方面:一是數據不足,目前機器人操作領域的數據量遠未達到互聯網數據的量級;二是對錯誤的容忍度低,機器人操作對精度的要求遠
46、高于語言模型;三是推理頻率不足,大模型在實時操作中的表現還有待提高;四是數據多樣性與訓練穩定性之間的平衡是一個難題。2.3.2 關鍵挑戰二:實時性差 當前大模型具身策略的決策存在實時性問題。機器人控制的正確性不僅依賴系統計算的邏輯結果,還依賴于產生這個結果的時間,即“遲到的結果非正確的結果”。以 Figure 機器人為例,Figure 機器人在視頻中呈現的延遲時長約為 2-3 秒,因為它使用了 Pipeline、管道型路線,即自然語言發送后、機器人“大腦”可以理解并生成指令,由指令來控制。而谷歌 RT-2 只能做到 15Hz 的推理和控制指令生成速率,輸出運動頻率僅能達到 1-3Hz,使得機器
47、人的反射弧長達 0.3 秒甚至 1秒,遠遠低于人類和許多實際應用場景的需求。2.3.3 關鍵挑戰三:數據收集與合成數據的使用 1)真實數據收集與標注 端到端算法需要大量連續時序的駕駛行為視頻進行標注,這種數據收集、標注及閉環驗證的過程在人形機器人上同樣困難。人形機器人需要面對更加復雜的環境和任務,因此數據收集的難度和成本都更高。同時,由于人形機器人的操作具有更高的風險性,因此數據標注的準確性也要求更高。人形機器人需要大量實際人類真實的數據集給機器人進行訓練。動作捕捉技術和 VR 遠程操作是實現人形機器人擬人化動作數據采集的有效途徑。動作捕捉技術通過在人體關鍵部位貼上反光標記點或使用慣性傳感器等
48、方式,捕捉人體的運動姿態和動作數據。VR 遠程操控技術是人類戴著 VR 眼鏡和手套,通過遠程操作的方式來采集機器人數據。這些數據可以被用于訓練人形機器人的動作模型,使其能夠模擬出類似人類的動作和行為。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 19 圖32:動作捕捉技術采集數據 圖33:VR 遠程操控采集數據 資料來源:瑞立視官網,民生證券研究院 資料來源:特斯拉,民生證券研究院 2)合成數據的生成和使用 由于擴展法則(Scaling Law)的存在,機器人的數據集大小決定了其性能的好壞,真實數據的采集消耗較大的人力物力成本,合成數據僅依
49、賴 AI 算法實現數據生成,數據采集快并且成本低廉。同時人形機器人面臨著場景復雜性與模型泛化能力的問題,合成數據構建的世界模型就起到了很大的作用。自動駕駛場景相對結構化,主要操作在可預測和規范化的環境中。而人形機器人需要應用于多樣的場景,如工廠、家庭、辦公室等,對泛化能力的要求遠高于自動駕駛汽車?;谑澜缒P蜕筛哔|量的動作視頻和規劃策略,在仿真環境中模擬各種復雜場景,就能夠提升系統的魯棒性。合成數據生成的關鍵問題是保持數據集的熵和多樣性,避免生成的數據與真實數據差距過大或者樣式單一。圖34:未來合成數據的使用 資料來源:Gartner,CSDN,民生證券研究院 行業深度研究/人形機器人 本公
50、司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 20 3 機器人“大腦”的外延:云計算與邊緣計算“大腦”以具身大模型為核心,外延還包括模態融合、大規模數據集、云邊端一體計算架構等多方面技術。具體來說,多模態融合感知技術可以將視覺、觸覺等不同模態的數據直接輸入到深度神經網絡中,通過聯合學習實現多模態信息的無縫融合,獲得更全面、準確的環境表征。大規模數據集則為模型提供了廣泛的先驗知識,使其能夠應對復雜多變的現實環境,具身大模型通過在海量多模態數據上的預訓練,將多模態輸入映射到一個統一的語義空間,并在此基礎上進行任務理解、決策規劃等高層認知。云邊端一體計算架構通過軟硬件協同設計
51、,針對機器人應用的特點進行優化,可以大幅提升系統的實時性、能效比和可靠性,發揮云、邊、端不同層級計算資源的優勢,實現具身大模型推理、多模態感知的高效協同。圖35:圍繞人形機器人“大腦”的關鍵技術架構 資料來源:人形機器人世界微信公眾號,民生證券研究院 3.1 機器人“大腦”的運行保障:云計算 3.1.1 大模型深度賦能機器人,云計算提供算力及存儲“云計算”是分布式計算的一種,指的是通過網絡“云”將巨大的數據計算處理程序分解成無數個小程序,然后,通過多部服務器組成的系統進行處理和分析這些小程序得到結果并返回給用戶。它通過網絡以按需、易擴展的方式獲得所需資源。云計算根據服務類型劃分主要可以分為三層
52、:(1)Laas,基礎設施即服務:為企業提供 IT 基礎設施,如服務器、存儲設備等(2)PaaS,平臺即服務:提供計算、網絡、開發工具等資源,用于工具和應用程序的創建(3)SaaS,軟件即服務:指通過互聯網按需提供軟件應用程序。AI、大模型深度賦能機器人,算力需求確定,云計算能夠提供算力和存儲空間。如谷歌于 23 年 3 月推出 PaLM-E 模型,融合了 ViT Vision Transformer 的 220億參數和 PaLM 的 5400 億參數,集成了可控制機器人視覺和語言的能力;ChatGPT 為代表的 NLP 革命性進展未來將助力機器人的語音語義分析及交互模塊的優化,強大的語義模型
53、可以幫助泛通用機器人理解更復雜的指令和目標,從何做出更符合人類期望的決策。云計算能夠為 AI、大模型與機器人的結合提供強大的計算能力和數據存儲空間,以及能夠隨時隨地獲得所需資源和算法支持的靈活性、可拓展性。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 21 3.1.2 云計算機器人及市場規模 云機器人技術指利用云計算(如云存儲、云處理等)以及其他相關技術(如大數據分析、機器學習等)來提升機器人功能的所有技術。本地機器人、網絡連接和云服務器是云機器人架構的三個關鍵構成要素。(1)本地機器人:主要負責直接與環境進行交互,包括接收傳感器輸入(如視
54、覺、觸覺、聲音等)和執行動作。本地機器人通常有一些基礎的計算能力,能夠進行一些簡單的數據處理和決策。另外,本地機器人需要有網絡接口,以連接到云端。(2)網絡連接:它是本地機器人和云服務器之間的橋梁,負責傳輸數據和指令。網絡連接需要足夠的帶寬,以支持大量數據的傳輸,同時需要足夠的可靠性和安全性,以保證數據的準確性和安全性。(3)云服務器:它是云機器人架構的核心,提供大規模的數據存儲和強大的計算能力。云服務器可以運行各種軟件和服務,如數據分析工具、機器學習模型、數據庫等。通過云服務器,機器人可以共享數據,利用強大的計算資源,進行復雜的任務。以賽特智能推出的智塞拉為例,智賽拉是一款專為醫療領域設計的
55、智能配送機器人,其強大的功能和獨特的云機器人架構提高醫療服務效率和質量。智塞拉的本地機器人部分,配置有大容量箱體、高清雙目攝像頭、高精度定位導航系統、感知避障系統(超聲波雷達、激光雷達等)和無線網絡連接模塊,這款自動駕駛電動車具備實時感知和自我導航的能力。通過無線局域網/4G/5G,智賽拉實現了與云服務器的無縫連接。它所對接的云端包含了醫院管理系統和配送路線規劃系統,使得智賽拉在實現藥品追溯和人員追溯的同時,也能夠自主調用電梯,并在閑時自主返回充電。圖36:智塞拉機器人 資料來源:賽特智能,民生證券研究院 根據 Global Market insights 統計,2022 年,全球云機器人市場
56、規模達 41億美元,預計 2023 年至 2032 年的復合增長率將超過 22.5%。其中,由于 SaaS行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 22 服務為企業提供了經濟高效且可擴展的訪問云機器人功能的方法,且為企業節約了大量在基礎設施和軟件開發方面的前期投資,因此市場份額最大,超過 42%。我們預計隨著云機器人市場規模的持續擴張,云計算相關基礎設施將充分受益。圖37:云機器人市場規模統計 資料來源:GMI,民生證券研究院 3.2 機器人集群智能的核心:邊緣計算 云計算是為機器人等終端設備提供算力的核心方式,但云計算在數據傳輸成本、
57、時延、安全性等方面的局限性使得邊緣計算存在發揮空間。首先,大型數據中心存在增量算力邊際遞減現象,單位算力成本的增加將制約“集中式”的算力發展;第二,網絡性能會限制數據中心算力的發揮,長距離數據傳輸還會導致較高的時延;最后,安全性也是重要因素。以工業機器人為例,部分工廠的設備管理人員并不會把機器人、傳感器等設備的數據全部通過互聯網上傳到云端,以防止竊取信息或破壞公廠運行等極端情況發生。邊緣計算的處理能力更靠近設備或數據源,能夠實現更低的時延、更好的隱私以及更優的成本,我們認為“云-邊”計算結合的方式能夠幫助機器人實現突破網絡環境的限制,大幅縮短響應時間,提高其在復雜場景中的自適應能力和應用價值。
58、目前,集成了邊緣算力的模組正在成為支撐機器人邊緣算力的核心形式。例如在第六屆中國國際進口博覽會期間,德州儀器展示了搭載 TDA4x 處理器的達明TM5S 協作機器人,基于 TDA4x 高效穩定的數據處理能力,機械臂能夠通過視覺鋪桌人的動作并作出相應模仿,彰顯智能制造場景下的創新應用。特斯拉針對Optimus 機器人研發的 DOJO D1 芯片也扮演了類似的角色。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 23 圖38:TM5S 協作機器人 圖39:Optimus 機器人 資料來源:達明官網,民生證券研究院 資料來源:搜狐網,民生證券研究院
59、 國內廠商同時也在進行積極探索。例如 2023 年 5 月中科創達發布的 Rubik魔方大模型和幾有的產品、業務密切融合,提升了邊緣計算在自然語言、圖形圖像處理、個性化推薦等領域的準確性與效率。根據公司官網,中科創達將智能音箱與機器人進行融合,通過模仿大模型的訓練,實現了能夠自由對話的智能銷售機器人。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 24 4 投資建議 2025 年人形機器人行業進入小批量量產階段,全球將有數千臺人形機器人進入工廠場景訓練,加速人形機器人“大腦”的發展。我們認為,目前人形機器人硬件端技術路線趨向收斂,軟件端“大腦
60、”智能水平的提升有望成為人形機器人自主性與泛化性提升的核心推動力。建議關注:1)“大腦”領域,布局大模型與機器人業務相結合的公司,如科大訊飛、中科創達、螢石網絡、柏楚電子、華依科技、芯動聯科、漢王科技等;2)AI+機器人領域,具備高壁壘的公司,如 3D 視覺領域奧比中光、大腦域控制芯片天準科技、新型傳感器峰岹科技等;3)同步受益的機器人本體公司,如總成方案三花智控、拓普集團等。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 25 5 風險提示 1)機器人算法迭代進步速度不及預期:機器人的算法進步速度可能并非線性,在某些數據缺失的情況下,算法訓
61、練的進步速度可能下降。2)人形機器人落地場景實際需求不及預期:機器人的實際應用場景還需要結合 B 端/C 端客戶的實際付費購買點,可能會與仿真環境中模擬的使用場景有差異。3)市場競爭加?。喝诵螜C器人產業處于快速發展的起點,展現出極大潛力,若其它之前未從事相關業務的公司切入市場,或導致市場競爭加劇,現有市場參與者收入、利潤率水平受到影響。行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 26 插圖目錄 圖 1:具身智能機器人是一個智能系統.3 圖 2:英偉達定義的人工智能發展四階段.4 圖 3:具身智能需要本體、智能體、數據、學習和進化架構四大核
62、心要素.5 圖 4:“大腦”、“小腦”及“肢體”三大部分組成人形機器人.5 圖 5:大模型推動機器人產業進入具身智能時代.6 圖 6:具身智能系統的控制層級.6 圖 7:MLLM 的模型結構.7 圖 8:全球前沿具身智能大模型或機器人操作系統.8 圖 9:具身智能的不同架構舉例.8 圖 10:大語言模型對“我把飲料灑了,你能幫忙嗎?”的回復.9 圖 11:SayCan 對于“我把飲料灑了,你能幫忙嗎?”的決策流程.9 圖 12:Transformer 核心架構.10 圖 13:自注意力機制示意圖.10 圖 14:RT-1 結構概覽.10 圖 15:機器人動作數字 token 化.11 圖 16
63、:PaLM-E 模型架構總覽.11 圖 17:在 PaLM-E 的引導下,機器人具備拆解和執行長程任務的能力.12 圖 18:RT-2 全流程概覽.12 圖 19:PaLM-E、RT-1 與 RT-2 邏輯關系.13 圖 20:RT-2 能夠推廣到各種需要推理、符號理解和人類識別的現實世界情況.13 圖 21:RT-X Open X-Embodiment Dataset 數據集.13 圖 22:RT-X 大模型工作原理.14 圖 23:RoboCat 工作原理.14 圖 24:FSD V12(Supervised)虛擬界面顯示.15 圖 25:自動駕駛的六個等級.15 圖 26:Baby AG
64、I 架構.15 圖 27:特斯拉 Optimus 機器人避障行走.16 圖 28:GR-2 視頻-語言模型與視頻-語音-動作模型.17 圖 29:真機預測結果與模擬視頻預測結果對比.17 圖 30:GR-2 完成流暢端到端物體揀選示意圖.17 圖 31:GR-2 在實驗中順利完成 122 項物體揀選,其中過半物體 GR-2 未曾見過.17 圖 32:動作捕捉技術采集數據.19 圖 33:VR 遠程操控采集數據.19 圖 34:未來合成數據的使用.19 圖 35:圍繞人形機器人“大腦”的關鍵技術架構.20 圖 36:智塞拉機器人.21 圖 37:云機器人市場規模統計.22 圖 38:TM5S 協
65、作機器人.23 圖 39:Optimus 機器人.23 表格目錄 表 1:智能機器人發展歷程.3 行業深度研究/人形機器人 本公司具備證券投資咨詢業務資格,請務必閱讀最后一頁免責聲明 證券研究報告 27 分析師承諾 本報告署名分析師具有中國證券業協會授予的證券投資咨詢執業資格并登記為注冊分析師,基于認真審慎的工作態度、專業嚴謹的研究方法與分析邏輯得出研究結論,獨立、客觀地出具本報告,并對本報告的內容和觀點負責。本報告清晰準確地反映了研究人員的研究觀點,結論不受任何第三方的授意、影響,研究人員不曾因、不因、也將不會因本報告中的具體推薦意見或觀點而直接或間接收到任何形式的補償。評級說明 投資建議評
66、級標準 評級 說明 以報告發布日后的 12 個月內公司股價(或行業指數)相對同期基準指數的漲跌幅為基準。其中:A 股以滬深 300 指數為基準;新三板以三板成指或三板做市指數為基準;港股以恒生指數為基準;美股以納斯達克綜合指數或標普500 指數為基準。公司評級 推薦 相對基準指數漲幅 15%以上 謹慎推薦 相對基準指數漲幅 5%15%之間 中性 相對基準指數漲幅-5%5%之間 回避 相對基準指數跌幅 5%以上 行業評級 推薦 相對基準指數漲幅 5%以上 中性 相對基準指數漲幅-5%5%之間 回避 相對基準指數跌幅 5%以上 免責聲明 民生證券股份有限公司(以下簡稱“本公司”)具有中國證監會許可
67、的證券投資咨詢業務資格。本報告僅供本公司境內客戶使用。本公司不會因接收人收到本報告而視其為客戶。本報告僅為參考之用,并不構成對客戶的投資建議,不應被視為買賣任何證券、金融工具的要約或要約邀請。本報告所包含的觀點及建議并未考慮獲取本報告的機構及個人的具體投資目的、財務狀況、特殊狀況、目標或需要,客戶應當充分考慮自身特定狀況,進行獨立評估,并應同時考量自身的投資目的、財務狀況和特定需求,必要時就法律、商業、財務、稅收等方面咨詢專家的意見,不應單純依靠本報告所載的內容而取代自身的獨立判斷。在任何情況下,本公司不對任何人因使用本報告中的任何內容而導致的任何可能的損失負任何責任。本報告是基于已公開信息撰
68、寫,但本公司不保證該等信息的準確性或完整性。本報告所載的資料、意見及預測僅反映本公司于發布本報告當日的判斷,且預測方法及結果存在一定程度局限性。在不同時期,本公司可發出與本報告所刊載的意見、預測不一致的報告,但本公司沒有義務和責任及時更新本報告所涉及的內容并通知客戶。在法律允許的情況下,本公司及其附屬機構可能持有報告中提及的公司所發行證券的頭寸并進行交易,也可能為這些公司提供或正在爭取提供投資銀行、財務顧問、咨詢服務等相關服務,本公司的員工可能擔任本報告所提及的公司的董事??蛻魬浞挚紤]可能存在的利益沖突,勿將本報告作為投資決策的唯一參考依據。若本公司以外的金融機構發送本報告,則由該金融機構獨
69、自為此發送行為負責。該機構的客戶應聯系該機構以交易本報告提及的證券或要求獲悉更詳細的信息。本報告不構成本公司向發送本報告金融機構之客戶提供的投資建議。本公司不會因任何機構或個人從其他機構獲得本報告而將其視為本公司客戶。本報告的版權僅歸本公司所有,未經書面許可,任何機構或個人不得以任何形式、任何目的進行翻版、轉載、發表、篡改或引用。所有在本報告中使用的商標、服務標識及標記,除非另有說明,均為本公司的商標、服務標識及標記。本公司版權所有并保留一切權利。民生證券研究院:上海:上海市浦東新區浦明路 8 號財富金融廣場 1 幢 5F;200120 北京:北京市東城區建國門內大街 28 號民生金融中心 A 座 18 層;100005 深圳:深圳市福田區中心四路 1 號嘉里建設廣場 1 座 10 層 01 室;518048