《機械設備行業專題研究:人形機器人需要怎樣的大模型?-231204(23頁).pdf》由會員分享,可在線閱讀,更多相關《機械設備行業專題研究:人形機器人需要怎樣的大模型?-231204(23頁).pdf(23頁珍藏版)》請在三個皮匠報告上搜索。
1、 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。1 證券研究報告 機械設備機械設備 人形機器人需要人形機器人需要怎怎樣的樣的大大模型?模型?華泰研究華泰研究 機械設備機械設備 增持增持 (維持維持)研究員 倪正洋倪正洋 SAC No.S0570522100004 SFC No.BTM566 +(86)21 2897 2228 聯系人 王自王自 SAC No.S0570123070064 +(86)21 2897 2228 行業行業走勢圖走勢圖 資料來源:Wind,華泰研究 2023 年 12 月 04 日中國內地 專題研究專題研究 大模型需具備自主可靠決策大模型需具備自主可靠決策
2、/多模態感知多模態感知/實時精準運控實時精準運控+泛化泛化/涌現能力涌現能力 機器人大模型的最終目標是提高人形機器人在不同場景和任務下執行的成功率。對于限定的應用場景和任務,從決策層、感知層和執行層三個角度出發,大模型需要具備自主可靠決策能力、多模態感知能力和實時精準運控能力;為了拓展到多樣復雜的應用場景和任務,大模型還需要具備泛化能力和涌現能力。目前大模型不斷迭代,已出現包含多種能力的“全能選手”,但仍存在感知模態不足、實時性差和泛化能力弱等問題。未來需要不斷優化訓練模型結構、訓練方法和數據集,將多模態感知信息納入模型,同時提高控制指令的生成速度和大模型的泛化和涌現能力。人形機人形機器人長期
3、存在高需求器人長期存在高需求+低供給矛盾,通用性受限為核心原因低供給矛盾,通用性受限為核心原因 人形機器人長期存在高需求+低供給矛盾。1)高需求:人形機器人的潛在應用場景廣泛,包括工業生產、日常生活和災難救援等;2)低供給:復盤人形機器人發展史,從早稻田大學的 Wabot 到波士頓動力 Altas,機器人運動性能大幅提升,但未實現大規模商業化應用。我們認為,人形機器人追求極致的運動性能意義有限,其未能大規模商用的核心原因是通用性受限,通用性受限體現在用戶主體要求高和應用場景局限兩方面。通用性受限帶來的商業化落地困難,也使得硬件成本難以在規模效應下顯著下降。大模型充當大腦實現任務級交互,可大幅提
4、升通用性大模型充當大腦實現任務級交互,可大幅提升通用性 波士頓動力 Atlas 通過多種硬件設備實現了跳躍、后空翻等高難度動作,運動能力遠超近年發布的人形機器人,但這些動作源自提前創建的行為庫。我們認為,硬件不是掣肘,軟件阻礙了通用性的提升,軟件升級后可以打通“軟硬件升級-商業化應用-研發投入增多”正循環。機器人的控制軟件分多個層級,其中任務級為最高層級,實現任務級交互可以大大提高人形機器人通用性,一方面用戶主體可由工程師轉變為普通用戶;另一方面應用場景可由限定場景轉變為開放式場景。而大模型的能力恰好與任務級交互的需求相匹配,為人形機器人理想“大腦”。機器人大模型需具備機器人大模型需具備 3+
5、2 種能力,迭代升級后初現全能選手種能力,迭代升級后初現全能選手 對于限定的應用場景和任務,大模型需要具備自主可靠決策、多模態感知和實時精準運控能力;拓展到多樣復雜的應用場景和任務,大模型需要具備泛化能力和涌現能力?,F有大模型不斷迭代升級,拓寬能力圈,我們按照發布時間依次對各種大模型進行分析:SayCan 為實現自主可靠決策做出貢獻;Gato 為實現多模態感知做出貢獻;RT-1 為實現實時精準運控作出貢獻;PaLM-E 將自主可靠決策和多模態感知相結合;RoboCat 最重要的貢獻是可以自主生成訓練數據集;RT-2 將 3+2 種能力全面結合;RT-X 在經過多個數據集訓練后,多種能力全面提升
6、。感知模態感知模態/實時性實時性/泛化能力問題需依靠訓練模型泛化能力問題需依靠訓練模型/方法方法/數據集共同解決數據集共同解決 目前大模型存在感知維度不足、實時性差和泛化能力弱等問題。感知方面,現有大模型主要包含視覺感知,以學習雕刻為例,僅依靠觀摩而不動手操作,很難徹底掌握這門工藝,因此多模態感知是必然趨勢;運控方面,現有大模型的指令生成速度較慢、生成結果簡單,短期來看,底層運控仍需依靠傳統機器人算法;泛化能力方面,RT-2 在未知復雜環境中的執行成功率僅為35%。我們認為,未來需依靠訓練模型結構、訓練方法和數據集的改進,將更多模態感知模態納入模型,同時提高運控指令的生成速度和泛化能力。風險提
7、示:大模型多模態數據融合不及預期、大模型指令生成速度不及預期、大模型泛化及涌現能力不及預期。(15)(10)(4)27Dec-22Apr-23Jul-23Nov-23(%)機械設備滬深300 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。2 機械設備機械設備 正文目錄正文目錄 人形機器人商業化痛點:通用性受限人形機器人商業化痛點:通用性受限.3 高需求+低供給的商業化矛盾長期存在.3 通用性受限導致商業化落地困難.4 通用性如何拓寬:大模型充當大通用性如何拓寬:大模型充當大腦實現任務級交互腦實現任務級交互.5 硬件 vs 軟件:硬件不是掣肘,軟件為發展正循環的第一步.5 大腦 v
8、s 小腦:大腦負責任務級交互,小腦負責低層級運控.6 大模型為人形機器人理想大腦,可提升人形機器人通用性.7 大模型終大模型終需具備自主可靠決策需具備自主可靠決策+多模態感知多模態感知+實時精準運控能力實時精準運控能力.9 目前進展:大模型不斷迭代升級,拓寬能力圈.10 SayCan:為實現自主可靠決策做出貢獻.10 Gato:為實現多模態感知做出貢獻.12 RT-1:為實現實時精準運控做出貢獻.13 PaLM-E:將自主可靠決策和多模態感知相結合.14 RoboCat:可以自主生成訓練數據集,實現自我學習.15 RT-2:VLA 模型將 5 種能力有機結合.16 RT-X:經過多個數據集訓練
9、后,5 種能力全面提升.17 不足與展望:感知模態+實時性+泛化能力需要進一步提升.18 風險提示.20 vYgUcZuYhWqVcZoYoYmVbR8Q8OoMpPtRtQkPqRpNjMoOqO6MmNmPvPpOnQvPqRxO 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。3 機械設備機械設備 人形機器人商業化痛點:通用性受限人形機器人商業化痛點:通用性受限 高需求高需求+低供給的商業化矛盾長期存在低供給的商業化矛盾長期存在 高需求:人形機器人的高需求:人形機器人的潛在潛在應用場景廣泛應用場景廣泛。在工業生產中,人形機器人可應用于汽車、3C等行業,替代人類完成組裝和質檢等
10、重復枯燥的任務;在日常生活中,人形機器人可以提供打掃衛生、做飯、照顧老人和教育小孩等多種服務;此外,人形機器人還可以替代人類完成災難救援等危險性任務。目前全球范圍內人口老齡化問題正在加劇,勞動力成本不斷提升,未來人形機器人市場空間廣闊。圖表圖表1:特斯拉特斯拉 Optimus 應用場景示例應用場景示例 圖表圖表2:人形機器人在養老、教育等多方面應用人形機器人在養老、教育等多方面應用 資料來源:Tesla Twitter 賬號,華泰研究 資料來源:優必選官網,中瑞福寧官網,華泰研究 低供給:絕大多數人形機器人未實現商業化落地低供給:絕大多數人形機器人未實現商業化落地。早在 1973 年早稻田大學
11、就研發出世界上第一款全尺寸人形機器人 Wabot-1;同樣為了實現人形機器人領域的夢想,本田于 1986 年開始秘密研發機器人雙足結構,經過多次迭代后,本田正式于 2000 年推出 Asimo 機器人,后由于 Asimo 年租金高達 2000 萬日元,難以商業化應用,本田研發團隊于 2018 年解散;波士頓動力 Atlas 也遲遲未實現大規模商業化應用;特斯拉 Optimus 的最新進展是能夠依靠視覺對物體分類并完成瑜伽動作,也未能大規模商業化應用。目前絕大多數人形機器人并未實現大規模商業化落地。圖表圖表3:人形機器人商業化落地情況人形機器人商業化落地情況 企業企業 項目項目 商業化情況商業化
12、情況 特斯拉 Optimus 最快兩年內做到小規模應用 波士頓動力 Atlas 尚未實現商業化 本田 ASIMO 尚未實現商業化 Agility Robotics Digit 目前原型機在亞馬遜進行測試 1X Technologies EVE 已成功應用于巡邏安保場景 優必選 Walker X 成功出口到沙特 NEOM 新未來城 小米 Cyberone 尚無法實現量產 傅利葉智能 Fourier GR-1 開啟預售 智元機器人 遠征 A1 最快 24 年切入工業智能制造場景 資料來源:中國機器人網,機器之能,人形機器人聯盟,深圳市機器人協會,機器人技術與應用,機器人大講堂,華泰研究 免責聲明和
13、披露以及分析師聲明是報告的一部分,請務必一起閱讀。4 機械設備機械設備 通用性受限導致商業化落地困難通用性受限導致商業化落地困難 我們認為通用性受限是人形機器人長期面臨高需求和低供給現象的原因。我們認為通用性受限是人形機器人長期面臨高需求和低供給現象的原因。依托于工業機器人的快速發展,執行類零部件的成本在人形機器人大規模放量后有望顯著下降,因此我們認為硬件成本高昂并不是人形機器人長期面臨高需求和低供給現象的原因。早稻田大學Wabot、本田 Asimo 以及波士頓動力 Atlas 代表了早期各家企業在人形機器人領域的探索。Wabot 受限于當時的技術水平,運動能力較差;本田 Asimo 運動能力
14、、智能化水平有所提高,但由于應用場景限制,難以大規模推廣;波士頓動力 Atlas 的運動性能進一步提高,但也未實現大規模應用。我們認為,人形機器人追求極致的運動性能意義有限,其未能大規模商用的核心原因是通用性受限。通用性通用性受限體現在受限體現在目前機器人對目前機器人對用戶主體專業要求高和應用場景局限用戶主體專業要求高和應用場景局限。1)用戶主體:傳統人形機器人偏向于是一種可編程的專用設備,需要高級算法工程師進行編碼設定才能正常運控,普通用戶難以直接參與。如果普通用戶能與人形機器人實現交互,將會大大降低使用門檻,進而促進人形機器人走向大規模應用;2)應用場景:人形機器人的應用場景不能僅局限于訓
15、練場景,還需要能夠在開放式的復雜環境中完成各種任務。早期波士頓動力的Atlas 雖然能夠完成后空翻等高難度動作,但是其在用戶主體和應用場景方面均有欠缺,一方面其需要機器人工程師進行控制,普通人難以直接使用;另一方面,Atlas 最初是面向災難救援進行設計,并且存在維護困難、漏液等問題,可靠性較差,應用場景受限。圖表圖表4:通用性受限是實現商業化的首要問題通用性受限是實現商業化的首要問題 資料來源:華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。5 機械設備機械設備 通用性如何拓寬:大模型充當大腦實現任務級交互通用性如何拓寬:大模型充當大腦實現任務級交互 硬件硬件 vs 軟
16、件:硬件不是掣肘,軟件為發展正循環的第一步軟件:硬件不是掣肘,軟件為發展正循環的第一步 硬件不是掣肘,軟件阻礙機器人硬件不是掣肘,軟件阻礙機器人通用性的提升。通用性的提升。2013 年波士頓動力基于早期的 PETMAN設計了面向災難救援的 Atlas 人形機器人。經過多次迭代后,Atlas 已經脫離了外接電源,通過電液混合驅動結合 IMU、編碼器、攝像頭、激光雷達和力傳感器實現了跳越、后空翻等高難度動作,在運動能力上遠超近年來發布的人形機器人。但這些動作都源自提前創建的行為庫。因此我們認為,硬件并不是機器人通用性的掣肘,軟件限制了機器人應用場景的推廣,阻礙了其通用性的提高。圖表圖表5:Alta
17、s 可實現通過平衡木等高難度動作可實現通過平衡木等高難度動作 圖表圖表6:Altas 可實現空中拋物等操作可實現空中拋物等操作 資料來源:波士頓動力官網,華泰研究 資料來源:波士頓動力官網,華泰研究 軟件軟件升級是實現人形機器人發展正循環的第一步升級是實現人形機器人發展正循環的第一步。我們認為人形機器人的發展存在正循環,其包含三個階段:1)軟件升級后,機器人通用性提高,人形機器人實現初步商業化落地;2)規?;逃煤?,規模效應下,硬件成本降低,企業投入更多研發資金;3)更多的研發投入促進軟硬件迭代升級,人形機器人性能提升后,將進一步打開應用空間。因此,我們認為,目前階段軟件升級迫在眉睫,機器人通
18、用性提高后,實現商業化落地,才能真正實現形機器人發展的“正循環”。圖表圖表7:軟硬件相互配合才能實現軟硬件相互配合才能實現機器人發展的機器人發展的正循環正循環 資料來源:華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。6 機械設備機械設備 大腦大腦 vs 小腦:大腦小腦:大腦負責任務級交互負責任務級交互,小腦負責低層級運控,小腦負責低層級運控 機器人控制軟件可分為機器人控制軟件可分為 5 個層級,任務級為最高層級個層級,任務級為最高層級。機器人控制框架一般采用層級控制(Hierarchical Structure)方法,根據 Robotics:Modelling,Plan
19、ning and Control 和 2023年 8 月珞石機器人 CTO 韓峰濤在專欄文章中的描述,我們將機器人控制層級分為任務級、技能級、動作級、基元級和伺服級。任務級包括任務定義與描述、任務分解與動作拆分等;技能級負責將拆分后的動作轉化為符號指令;動作級、基元級和伺服級屬于傳統工業機器人的范疇,包括控制、執行、反饋等環節。實現任級級交互實現任級級交互可大大提高人形機器人通用性可大大提高人形機器人通用性。以“去接一杯水”為例,實現這一動作需要在不同層級上實現不同的任務。任務級:1)任務定義與描述:去接一杯水;2)任務分解與動作拆分:把從拿杯子、打開水龍頭到接水的過程拆分為一個個的細小動作;
20、技能級:3)生成符號指令:將一系列動作用計算機編程語言表示;動作級/基元級/伺服級:4)控制-執行-反饋:根據符號指令完成一系列動作。在傳統機器人中,前三步由機器人工程師完成,只有第四步是機器人自主完成,實現任務級交互后,前三步可由機器人自主完成,用戶只需要發送任務指令即可,用戶主體從工程師變為普通用戶。同時,傳統機器人需要根據不同場景進行特定編程,實現任務級交互后,人形機器人可以在開放式場景中自主完成各類任務。圖表圖表8:實現任級級交互可大大提高人形機器人通用性實現任級級交互可大大提高人形機器人通用性 資料來源:珞石機器人 CTO 韓峰濤,華泰研究 類比人體結構,“大腦”是實現機器人任務級交
21、互的主力軍類比人體結構,“大腦”是實現機器人任務級交互的主力軍。在人體結構中,大腦主要負責抽象思維和感知協調,與機器人任務級交互的功能相似;小腦和腦干主要負責維持軀干平衡、控制姿態和步態,與動作級、基元級和伺服級的功能相似。以智元機器人為例,其 EI-Brain可分為云端超腦、大腦、小腦、腦干,其中大腦負責完成任務級和技能級的調度,小腦負責指令級的調度,腦干負責伺服機的調度。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。7 機械設備機械設備 圖表圖表9:大腦負責任務級交互的實現大腦負責任務級交互的實現,小腦負責低層級運控,小腦負責低層級運控 資料來源:智元機器人公眾號,華泰研究
22、大模型大模型為人形機器人理想為人形機器人理想大腦大腦,可可提升提升人形機器人人形機器人通用性通用性 大模型的能力與任務大模型的能力與任務級級交互交互的要求相匹配,的要求相匹配,為為人形機器人理想“大腦”人形機器人理想“大腦”。以 LLM 大語言模型為例,其具備多個領域的基礎知識、強大的內容生成能力、良好的上下文理解、自然語言連續對話能力和強大的小樣本學習能力,可以與任務級交互中的任務描述、任務分解、運行代碼生成和任務過程交互等要求相匹配。我們認為,大模型為人形機器人理想的“大腦”。圖表圖表10:大模型的能力與大模型的能力與機器人機器人任務級交互任務級交互要求要求匹配匹配 資料來源:珞石機器人
23、CTO 韓峰濤,華泰研究 大模型大模型較傳統較傳統 AI 模型有更強的泛化能力模型有更強的泛化能力,可提高人形機器人通用性,可提高人形機器人通用性。在算法中,整個世界及規律猶如一座山脈,而小模型只是其中的一個小山包,無法看到小山包之外的東西。大模型提供了整個山脈的抽象信息,而不是具體的地理數據,這些抽象信息基于自然語言和符號進行訓練,因此大模型可以解決邊角場景、OOD 泛化性問題。以往的 AI 模型多是特定領域的專用模型,拓展新場景應用需要再經過一邊“數據收集-標注-訓練-部署-應用”的流程,很難應用在周圍環境頻繁變化的場景下。而大模型的出現,讓成本較高的垂直領域AI 開發,變成了“訓練大模型
24、+特定任務微調”的形式,大幅提高了開發速度,可提高人形機器人在不同場景和任務下的執行成功率,從而提高人形機器人的通用性。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。8 機械設備機械設備 圖表圖表11:大模型解決任務的一般范式大模型解決任務的一般范式 資料來源:On the Opportunities and Risks of Foundation Models(Rishi 等,2022),華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。9 機械設備機械設備 大模型終需具備自主可靠決策大模型終需具備自主可靠決策+多模態感知多模態感知+實時精準運控能力實時精準
25、運控能力 機器人機器人大模型的最終大模型的最終目標目標是提升是提升機器人在不同機器人在不同場景和任務下場景和任務下執行執行的成功率的成功率。人形機器人作為具身智能的理想載體,不僅需要在“任務層”上將一項具體的任務拆解為一項項具體的子任務,還需要切實地執行這些子任務,實現與物理世界的交互,因此機器人大模型的執行成功率是衡量機器人智能化程度的重要指標。為為了了提升執行成功率,大模型需要具備提升執行成功率,大模型需要具備以下以下 3+2 種能力種能力:對于限定的應用場景和任務,需要具備:1.自主可靠決策能力:自主可靠決策能力:大模型需要結合任務基礎和物理基礎,自主地將高層級的任務分解為可執行/可靠的
26、子任務。任務基礎提供了任務的目標和方向,包括大模型對高層級語言指令的理解,對完成該任務一般步驟的掌握,需要具備強大的語言理解能力和常識積累;物理基礎用于判斷完成子任務的可能性,包括大模型對外部環境的感知、對自身狀態的監控和對物理規則的理解,需要具備強大的感知能力和物理理解能力。2.多模態感知能力:多模態感知能力:大模型需要具備豐富的外部感知(視覺、聽覺、觸覺等)和內部感知(力矩、IMU 等),以便獲取外部環境和自身狀態等信息,并基于獲取的信息,做出正確的決策。同時,感知的獲取不是靜態的,在運控的過程中,需要實時實地獲取、理解和關聯這些感知信息,才能更好的完成與環境的物理交互。3.實時實時精準精
27、準運控能力:運控能力:大模型需要以任務目標為導向,結合動態反饋的多模態感知信息,實時精準地完成運動控制。人形機器人運動控制需要具備實時性和精準性,兩者共同決定人形機器人運動控制的效率和質量。實時性是指機器人接收到控制指令后,能夠在極短時間內做出反應并完成動作,例如人形機器人在執行任務時,若遇到障礙物,需要及時做出規避動作;精準性是指機器人執行動作的精準度,包括位置精度、速度精度和力矩精度等,需要大模型具備較強的計算能力。面對多樣復雜的應用場景和任務,需要具備:4.泛化能力:泛化能力:泛化是指模型在新的對象、背景和環境下的適應能力,例如機器人在一個環境中學會了如何開門,之后即使門的形狀、大小和開
28、門方式不同,也能夠完成開門這一動作。大模型預訓練的數據集是在限定場景中收集的,不可能包含現實世界中所有的應用場景,因此大模型需要具備泛化能力,來面對紛繁復雜的現實世界。5.涌現能力:涌現能力:涌現是指模型表現出機器人訓練數據之外的任務執行能力,例如在 RT-2 中符號理解、推理和人類識別三類不在訓練數據中的涌現任務,RT-2 也能以較高的正確率完成。經過多種機器人多場景數據訓練的 RT-2-X 涌現能力約為 RT-2 的 3 倍,可以完成的動作指令從絕對位置(存在于訓練數據中)拓展至相對位置(訓練數據中未出現)。圖表圖表12:大模型需要具備大模型需要具備 3+2 種能力種能力 資料來源:華泰研
29、究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。10 機械設備機械設備 目前進展:大模型不斷迭代升級,拓寬能力圈目前進展:大模型不斷迭代升級,拓寬能力圈 我們按照大模型發布時間,依次對多個主流機器人大模型的能力進行拆解:1.SayCan:為實現自主可靠決策做出貢獻,將 LLMs 引入到機器人決策中,可將高層級任務拆分為可執行的子任務;2.Gato:為實現多模態感知做出貢獻,將多模態的信息 token 化,輸入到 transformer 架構中;3.RT-1:為實現實時精準運控做出貢獻,基于包含機器人軌跡數據的 transformer 架構,可以輸出離散化的機器人動作 token
30、,同時收集了大量的機器人數據;4.PaLM-E:將自主可靠決策和多模態感知兩種能力相結合,將多模態信息以類似語言序列的方式,輸入到預先訓練的 LLMs 中,得到 VLM(視覺語言模型),輸入端為多模態信息,輸出端為文本決策;5.RoboCat:最重要的貢獻是可以自主生成訓練數據集,其將多模態模型 Gato 與機器人訓練數據集相結合,可以實現自我學習;6.RT-2:有機結合 5 種能力,將 token 化后的機器人數據輸入到 VLM 模型中,得到 VLA(視覺-語言-動作模型),不僅實現了自主可靠決策、多模態感知和實時精準運控能力的結合,同時展現出泛化能力和涌現能力;7.RT-X:5 種能力全面
31、提升,在保留 RT-1 和 RT-2 原有架構的基礎上,經過多種機器人多場景數據集的訓練,各項能力均有提升。圖表圖表13:主流主流機器人大模型機器人大模型在各種能力上的貢獻在各種能力上的貢獻 發布時間發布時間 模型模型 自主可靠決策能力自主可靠決策能力 多模態感知多模態感知能力能力 實時精準運控能力實時精準運控能力 泛化能力泛化能力 涌現能力涌現能力 2022.4 SayCan 2022.5 Gato 2022.1 RT-1 2023.3 PaLM-E 2023.6 RoboCat 2023.7 RT-2 2023.10 RT-X 注:代表在此項能力中做出貢獻,可在不同模型間對比,數量多代表能
32、力強,但個數不代表具體倍數 資料來源:華泰研究 SayCan:為實現自主可靠決策為實現自主可靠決策做出做出貢獻貢獻 SayCan 由基于由基于 LLMs 的的 Say 和判斷可執行性的和判斷可執行性的 Can 組成組成。2022 年 4 月,谷歌機器人團隊聯合 Everyday Robots 開發出用于機器人決策的模型 SayCan。該模型將機器人的決策過程拆分為兩部分Say 和 Can:1)Say 主要由 LLMs 組成:負責理解高層級任務的含義,并且將高層級任務分解為子任務;2)Can 由預訓練得到的 Affordance 函數構成:結合機器人的自身狀態和周圍的環境,將 Say 給出的子任
33、務和預先設定可完成的子任務進行比對,判斷其是否可執行。雖然該模型可以執行子任務,但執行操作是事先編碼設定的,主要貢獻在于為人形機器人的決策提供思路,首先基于大語言模型的常識積累,提出解決任務的一般步驟,其次根據現實條件,判斷子任務的可執行性,從而得出自主可靠的決策。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。11 機械設備機械設備 圖表圖表14:SayCan 架構架構綜合綜合 LLMs 和和 Affordance 函數,選出最合適的可執行動作函數,選出最合適的可執行動作 資料來源:Do as I can,not as I say:Grounding language in ro
34、botic affordances(Google,2022),華泰研究 Affordance 函數可以淘汰不可執行的函數可以淘汰不可執行的決策,提高決策,提高自主可靠自主可靠性性。由于 Say 部分只是從語義層面對抽象指令進行分解,并未考慮現實基礎,其分解出的子命令可能在現實中不可執行。以“你將怎樣把海綿放回柜子上”這一高級指令為例,圖中藍條表示 LLMs 給出的可行概率,紅條表示成功執行選定動作的概率,綠條是 SayCan 給出的綜合得分。在第一步中,盡管 LLMs 認為“拿取海綿”是正確的動作,但 Affordance 函數根據視覺信息認為這是不可能一步執行的,因此選擇了“尋找海綿”。由此
35、可見,SayCan 大模型可以幫助機器人做出可靠決策。圖表圖表15:SayCan 綜合得分(綠條)綜合得分(綠條)=LLMs(藍條)(藍條)+Affordance 函數(紅條)函數(紅條)資料來源:Do as I can,not as I say:Grounding language in robotic affordances(Google,2022),華泰研究 SayCan 在真實廚房任務中規劃成功率為在真實廚房任務中規劃成功率為 81%。SayCan 執行 101 個任務的結果如下:在模擬廚房的任務中,SayCan 模型的規劃成功率為 84%,執行成功率為 74%。真實廚房環境中,Say
36、Can 的規劃成功率相比在模擬廚房中降低 3pct 至 81%,執行成功率降低 14pct至 60%。此外,SayCan 的規劃成功率可以隨著 LLMs 的改進而提高。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。12 機械設備機械設備 圖表圖表16:Saycan 在在 101 個模擬廚房個模擬廚房/真實廚房任務中成功率真實廚房任務中成功率 Mock Kitchen Kitchen Family Num Plan Execute Plan Execute NL Single 15 100%100%93%87%NL Nouns 15 67%47%60%40%NL Verbs 15
37、100%93%93%73%Structured 15 93%87%93$47%Embodiment 11 64%55%64%55%Crowd Sourced 15 87%87%73%60%Long-Horizon 15 73%47%73%47%Total 101 84%74%81%60%資料來源:Do as I can,not as I say:Grounding language in robotic affordances(Google,2022),華泰研究 Gato:為實現多模態感知為實現多模態感知做出做出貢獻貢獻 Gato 將多模態信息將多模態信息 token 化后輸入化后輸入 tra
38、nsformer 架構架構。2022 年 5 月,Google DeepMind推出多模態通用智能體 Gato。該模型的基礎架構是將文本、圖像、關節力矩、按鍵等信息序列化為扁平的 token 序列,將其輸入到統一的 transformer 框架中處理,可以完成 600 多個不同的任務,包含離散控制(雅達利、推箱子游戲)、連續控制(機器人控制、機械臂控制)、NLP 領域的對話,CV 領域的描述生成等。該模型的訓練方式是純監督學習,訓練數據包括文本、圖像、本體感知信息、關節力矩、按鍵等各類模態的離散或連續型的觀測、動作數據,多樣化的數據使得 Gato 具備在具體場景中解決復雜問題的能力。圖表圖表1
39、7:Gato 將多模態信息將多模態信息 token 化后輸入化后輸入 Transformer 中中 圖表圖表18:Gato 可實現不同場景中的多種任務可實現不同場景中的多種任務 資料來源:A Generalist Agent(DeepMind,2022),華泰研究 資料來源:A Generalist Agent(DeepMind,2022),華泰研究 Gato 在在模擬任務中表現優異,參數越多性能越好模擬任務中表現優異,參數越多性能越好。在 604 個模擬任務中,有 450 多個任務可以達到專家水平的 50%。研究人員評估了 3 種不同參數的模型:79M 模型、364M 模型和 1.18B 模
40、型(Gato),實驗結果表明,在相等的 token 數下,模型的參數越多,模型性能越好。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。13 機械設備機械設備 圖表圖表19:將將 Gato 在模擬任務中的表現與專家的對比在模擬任務中的表現與專家的對比 圖表圖表20:Gato 模型模型參數越多參數越多,性能越好,性能越好 資料來源:A Generalist Agent(DeepMind,2022),華泰研究 資料來源:A Generalist Agent(DeepMind,2022),華泰研究 RT-1:為實現實時精準運控為實現實時精準運控做出做出貢獻貢獻 RT-1 將機器人軌跡數據
41、輸入將機器人軌跡數據輸入 transformer 架構架構,可可得到得到離散化動作離散化動作 token。其主體包括:1)卷積神經網絡(EfficientNet):通過 ImageNet 預訓練得到,用于處理圖像和文本,以提取與任務相關的視覺特征,但其參數較少,嚴格意義上不屬于大模型范疇;2)token 學習器:計算出嵌入 transformer 中信息的 token;3)transformer:處理輸入的 token,并預測離散化的機器人動作 token。動作包括用于臂(arm)移動的七個維度(x、y、z、滾動、俯仰、偏航、夾具的打開)、用于基座(base)移動的三個維度(x、y、偏航),以
42、及用于在三種模式(控制手臂、基座或終止)之間切換的額外離散維度(mode)。RT-1 以 3Hz 速度執行閉環控制并和命令動作,直到產生終止動作或耗盡預設時間步長。圖表圖表21:RT-1 的架構的架構 資料來源:RT-1:Robotics Transformer for Real-World Control at Scale(Google,2023),華泰研究 RT-1 的重要貢獻之一是收集了大量的機器人真實數據。的重要貢獻之一是收集了大量的機器人真實數據。Google 依靠自身強大的資金和科研實力,耗時 17 個月,在 13 臺機器人上收集了 13 萬條機器人數據,覆蓋超過 700 個機器人
43、相關任務。大量的機器人真實數據,使得 RT-1 在訓練完成后具有良好的泛化能力。與其他基準模型相比,面對未見過的指令、不同干擾對象的數量、不同的背景和環境,裝配了 RT-1 的機器人均能較好地適應。此外,通過將真實數據、模擬環境生成的數據和其他型號機器人生成的數據相整合,訓練出的 RT-1 泛化能力進一步提升。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。14 機械設備機械設備 圖表圖表22:RT-1 具備高于基準的泛化能力具備高于基準的泛化能力 資料來源:RT-1:Robotics Transformer for Real-World Control at Scale(Goog
44、le,2023),華泰研究 PaLM-E:將自主可靠決策和將自主可靠決策和多模態感知多模態感知相結合相結合 PaLM-E 將將多模態大模型拓展多模態大模型拓展至至機器人領域機器人領域,可生成決策文本,可生成決策文本。2023 年 3 月,Google 和柏林工業大學的研發團隊推出通用多模態大模型 PaLM-E。該模型融合了 Google 當時最新的大型語言模型 PaLM 和最先進的視覺模型 ViT-22B,可以結合傳統運控算法執行復雜的機器人任務。PaLM-E 大模型的輸入端是連續的、可感知的數據,包括視覺、連續狀態估計值和文本等多模態信息。多模態信息以類似于語言序列的方式輸入到語言模型 Pa
45、LM 中,使其可以理解這些連續數據,從而能夠基于現實世界做出合理判斷。PaLM-E 是一個僅具有解碼器的語言模型,可以自動地根據前綴或提示生成文本結果。圖表圖表23:PaLM-E 架構架構由由 PaLM(語言模型)和(語言模型)和 ViT(視覺模型)組成(視覺模型)組成 資料來源:PaLM-E:An Embodied Multimodal Language Model(Google,2023),華泰研究 PaLM-E 擁有強大的擁有強大的正遷移能力正遷移能力和語言能力和語言能力。研究人員發現,通過混合任務訓練得到的PaLM-E 大模型,在單一任務的表現優于單一任務訓練得到的大模型,例如 PAL
46、M-E 經過包含三種抓取任務的數據集訓練后,在單一抓取任務中的執行成功率或準確度高于經過單一抓取任務訓練的模型。此外,PaLM-E 中語言模型越大,在進行機器人任務訓練中,保持的語言能力就越強,例如 PaLM-E-562B 基本保留了所有的語言能力。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。15 機械設備機械設備 圖表圖表24:多任務訓練后執行多任務訓練后執行成功率成功率優于單一任務訓練優于單一任務訓練 資料來源:PaLM-E:An Embodied Multimodal Language Model(Google,2023)華泰研究 RoboCat:可可以以自主生成訓練數據
47、集,實現自我學習自主生成訓練數據集,實現自我學習 RoboCat 將多模態模型將多模態模型 Gato 與機器人數據集相結合。與機器人數據集相結合。2023 年 6 月,Google DeepMind推出了 RoboCat,一種可以自我改進、自我提升的用于機器人的 AI 智能體。研究人員將多模態模型 Gato 與包含各種機器人手臂圖像和動作的訓練數據集相結合,使得 RoboCat 具有在模擬環境與物理環境中處理語言、圖像和動作等任務的能力。前文提到的 RT-1 和PaLM-E 所使用的絕大部分機器人數據通過人工示范與人工遙控操作的方式收集而來,所消耗的時間和人工成本較高。RoboCat 最大的創
48、新點在于可以利用少量人工收集的真實機器人數據集,自主生成新的訓練數據集。RoboCat 針對每個針對每個新任務新任務/機器人機器人的訓練的訓練周期周期包括五個包括五個階段階段,過程中可自主生成訓練集,過程中可自主生成訓練集:1)通過人工控制機械臂,收集 100-1000 個新任務/機器人的演示過程;2)針對該新任務/機器人,創建一個專門的衍生智能體(Agent);3)衍生智能體(Agent)對該新任務/新機器人進行平均 10000 次練習,生成更多訓練數據;4)將演示數據和自生成數據合并到 RoboCat 已有的訓練數據集中;5)在新的訓練數據集上訓練得到新版本的 RoboCat。圖表圖表25
49、:RoboCat 的“自我學習”訓練周期示意圖的“自我學習”訓練周期示意圖 資料來源:RoboCat:A Self-Improving Foundation Agent for Robotic Manipulation(Google,2023),華泰研究 RoboCat 經過自我學習,經過自我學習,執行成功率執行成功率由由 36%提升到提升到 74%。面對一項新任務時,最初版本的RoboCat在經過500次演示訓練后,執行成功率僅為36%;經過自我學習的訓練周期后,執行成功率提升至 74%。此外,根據論文顯示,RoboCat 在現實世界中的執行成功率要遠高于傳統基于視覺的模型。免責聲明和披露以
50、及分析師聲明是報告的一部分,請務必一起閱讀。16 機械設備機械設備 圖表圖表26:RoboCat 在現實世界中的執行成功率遠超過傳統基于視覺的模型在現實世界中的執行成功率遠超過傳統基于視覺的模型 資料來源:RoboCat:A Self-Improving Foundation Agent for Robotic Manipulation(Google,2023),華泰研究 RT-2:VLA 模型將模型將 5 種能力有機結合種能力有機結合 RT-2 將視覺語言模型和機器人動作相結合。將視覺語言模型和機器人動作相結合。2023 年 7 月,Google DeepMind 發布 RT-2,并將其定位
51、為新型的視覺語言動作(VLA)模型。RT-2 將 token 化后的機器人數據輸入到VLM 中,實現閉環的機器人控制。該模型兼具視覺語言模型和機器人動作的優勢:1)VLM經過海量互聯網數據集的訓練后,具備強大的語義推理和視覺解析能力;2)機器人動作數據的引入使模型能夠理解機器人行動,從而根據當前狀態預測機器人的下一步動作。圖表圖表27:RT-2 將機器人動作指令引入到將機器人動作指令引入到 VLM 模型中模型中 資料來源:RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control(Google2023
52、),華泰研究 基于原有的基于原有的 VLM 模型模型 PaLM-E 和和 PaLI-X,RT-2 具備良好的泛化能力和涌現能力。具備良好的泛化能力和涌現能力。Google選擇了原有的 VLM 模型 PaLM-E 和 PaLI-X,在預訓練的基礎上進行聯合微調,得到實例化的 RT-2-PaLM-E 和 RT-2-PaLI-X。實例化后進行了超過 6000 次的機器人實驗,結果顯示 RT-2 具備:1)較強的泛化能力:面對訓練數據中未出現的物體、背景和環境,RT-2 系列模型能夠以遠超基準對比模型的成功率完成任務;2)較好的涌現能力:對于符號理解、推理和人類識別三類不存在于機器人訓練數據中的涌現任
53、務,RT-2 系列模型也能以較高的正確率完成。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。17 機械設備機械設備 圖表圖表28:RT-2 具有較好的泛化能力具有較好的泛化能力 圖表圖表29:RT-2 具有較好的涌現能力具有較好的涌現能力 資料來源:RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control(Google,2023),華泰研究 資料來源:RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic
54、 Control(Google,2023),華泰研究 RT-X:經過經過多個數據集多個數據集訓練后,訓練后,5 種能力全面提升種能力全面提升 RT-X 在保持原有架構的基礎上,經過多個數據集訓練,得到在保持原有架構的基礎上,經過多個數據集訓練,得到 RT-1-X 和和 RT-2-X。2023 年10 月,Google DeepMind 開放訓練數據集 Open X-Embodiment,其包含超過 100 萬條真實的機器人軌跡數據,涵蓋 22 種機器人和 527 項技能(160266 項任務)。多樣化的數據集使得 RT-X 模型具備了在多種環境中處理各類任務的能力,機器人能夠更靈活地適應不同的
55、應用場景,例如倉庫搬運、防爆救險、家庭護理等。圖表圖表30:RT-1-X 和和 RT-2-X 的基本架構的基本架構 資料來源:Open X-Embodiment:Robotic Learning Datasets and RT-X Models(Google,2023),華泰研究 RT-1-X 在特定任務上的平均性能較在特定任務上的平均性能較 RT-1 和和原始模型提高原始模型提高 50%。雖然 RT-1-X 與 RT-1 的網絡架構相同,但因為 RT-1-X 采用了多樣化的數據集進行訓練,RT-1-X 模型在特定任務上(如開門)的平均性能比 RT-1 和原始模型提升 50%。免責聲明和披露以
56、及分析師聲明是報告的一部分,請務必一起閱讀。18 機械設備機械設備 圖表圖表31:RT-1-X 在特定任務上的平均性能較在特定任務上的平均性能較 RT-1 和原始模型提高和原始模型提高 50%資料來源:Open X-Embodiment:Robotic Learning Datasets and RT-X Models(Google,2023),華泰研究 RT-2-X 涌現能力約為涌現能力約為 RT-2 模型模型的的 3 倍倍,泛化能力約為原始模型的,泛化能力約為原始模型的 3 倍。倍。1)涌現是指模型表現出訓練數據集之外的執行能力。RT-2-X 涌現能力約為 RT-2 的 3 倍,動作指令從
57、傳統的絕對位置拓展至相對位置。例如,之前機器人只能理解將蘋果放在桌子的右上角的絕對位置指令,如今可以理解將蘋果放在可樂和杯子中間的相對位置指令。2)泛化是指模型在新場景下的適應能力。RT-2-X 的泛化能力約為原始模型的 3倍,從 27.3%提高至 75.8%。此外,更高的模型容量和多種機器人數據的融合均可以提升泛化能力。圖表圖表32:更高的模型容量能夠在機器人數據集之間實現更高程度的轉移更高的模型容量能夠在機器人數據集之間實現更高程度的轉移 Row Model Size History Length Dataset Co-Trained w/Web Initial Checkpoint Em
58、ergent Skills Evaluation RT-2 Generalization Evaluation(1)RT-2 55B none Google Robot action Yes Web-pretrained 27.3%62%(2)RT-2-X 55B none Robotics data Yes Web-pretrained 75.8%61%(3)RT-2-X 55B none Robotics data except Bridge Yes Web-pretrained 42.8%54%(4)RT-2-X 5B 2 Robotics data Yes Web-pretrained
59、 44.4%52%(5)RT-2-X 5B none Robotics data No Web-pretrained 14.5%30%(6)RT-2-X 5B 2 Robotics data No From scratch 0.0%1%(7)RT-2-X 5B 2 Robotics data No Web-pretrained 48.7%47%資料來源:Open X-Embodiment:Robotic Learning Datasets and RT-X Models(Google,2023),華泰研究 不足與展望:不足與展望:感知模態感知模態+實時性實時性+泛化能力泛化能力需要需要進一步提
60、升進一步提升 未來展望未來展望一一:現有現有機器人大模型機器人大模型主要主要包含包含視覺感知,視覺感知,多模態感知是多模態感知是未來發展未來發展趨勢。趨勢。以學習雕刻為例,人類如果只進行觀摩而不動手實操學習,很難徹底掌握雕刻這門工藝;人形機器人也一樣,它可以通過圖像和文字學會雕刻的動作,但是無法僅通過圖像修煉成雕刻大師,需要聯合與物理交互相關的感知,不斷學習改進。同時,多模態信息可以相互融合和交叉驗證,避免對單一模態信息的過度依賴。根據 What makes multi-modal learning better than single,在充足的訓練數據下,模態的種類越豐富,訓練得到的模型預測
61、誤差值越小,表征空間的估計越精確。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。19 機械設備機械設備 圖表圖表33:多模態大模型的預測準確度和多模態大模型的預測準確度和 MSE 損失優于單一模態損失優于單一模態 資料來源:What makes multi-modal learning better than single(Huang Y 等,2021),華泰研究 未來展望未來展望二二:大模型大模型指令生成指令生成速度速度慢慢,生成結果簡單生成結果簡單,短期,短期仍仍需依靠傳統機器人算法。需依靠傳統機器人算法。目前主流機器人大模型偏向于任務理解和拆分,對于機器人運動控制的涉及較少
62、,只是用端到端的訓練方式生成了簡單且離散分布的機械臂末端位置和底盤移動指令,未考慮連續路徑和軌跡規劃等更偏機器人領域的內容。以 RT-2 為例,RT-2-PaLI-X-55B 只能做到 1-3Hz的指令生成速度,在移動馬克筆的任務中,因為其運控速度遠低于馬克筆的滾動速度而失??;并且其生成的運動指令只是機械臂的末端位置和姿勢,未涉及傳統機器人運控范疇。因此,我們認為目前機器人大模型更擅長任務級和技能級的控制,傳統機器人算法擅長底層運控。圖表圖表34:VLA 模型的運控指令生成速度僅模型的運控指令生成速度僅 1-5Hz 模型模型 運控運控指令生成速度指令生成速度 輸出端輸出端 RT-1 3Hz 機
63、器人動作 token,動作包括用于臂移動的七個維度、用于基部移動的三個維度,以及用于在三種模式之間切換的額外離散維度 RT-2-PaLI-X-55B 1-3Hz 輸出 8 位整數組成的字符串,可還原為終止或繼續狀態的機器人位置變化量、機器人旋轉變化量以及抓取器狀態等動作數據 RT-2-PaLI-X-5B 5Hz 資料來源:RT-1:Robotics Transformer for Real-World Control at Scale(Google,2023),RT-2:Vision-Language-Action Models Transfer Web Knowledge to Roboti
64、c Control(Google,2023),華泰研究 圖表圖表35:主流具身機器人大模型擅長任務級和技能級,傳統機器人算法擅長底層運控主流具身機器人大模型擅長任務級和技能級,傳統機器人算法擅長底層運控 資料來源:珞石機器人 CTO 韓峰濤,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。20 機械設備機械設備 未來展望未來展望三三:未來未來大模型大模型需需依靠依靠預模型預模型架構架構、方法方法和和數據集數據集方面方面的改進提高泛化能力的改進提高泛化能力。在RT 系列論文中,RT-2 在未知復雜環境中的執行成功率僅 35%,RT-2-X 較 RT-2 的泛化能力沒有明顯提
65、升。根據Exploring visual pre-training for robot manipulation:Datasets,models and methods,模型結構、訓練方法和數據集對機器人的執行成功率均有影響。近期預訓練數據集迎來新突破,MimicGen 基于 175 個人工示范數據,生成了涵蓋 18 個任務的 5 萬多個合成數據;RoboGen 可以無限生成任務、場景和訓練數據,實現機器人 7x24小時全自動技能學習。我們認為,未來隨著模型結構、方法和數據集的不斷優化,人形機器人在未知復雜環境中的執行成功率有望提升,進而提升人形機器人的通用性。圖表圖表36:RT-2 在未知復
66、雜環境中的執行成功率僅在未知復雜環境中的執行成功率僅 35%Model Seen Tasks Unseen Objects Unseen Backgrounds Unseen Environments Unseen Average Easy Hard Easy Hard Easy Hard RT-1 92%31%43%71%9%26%14%32%RT-2-PaLI-X-55B 91%70%62%96%48%63%35%62%RT-2-PaLM-E-12B 93%84%76%75%71%36%33%62%資料來源:RT-2:Vision-Language-Action Models Transf
67、er Web Knowledge to Robotic Control(Google,2023),華泰研究 圖表圖表37:機器人操作視覺預訓練的一般路徑機器人操作視覺預訓練的一般路徑 圖表圖表38:RoboGen 可以實現機器人可以實現機器人 7x24 小時全自動技能學習小時全自動技能學習 資料來源:Exploring visual pre-training for robot manipulation:Datasets,models and methods(Ya Jing 等,2023),華泰研究 資料來源:RoboGen:towards unleashing infinite date f
68、or automated robot learning via generative simulation(Yufei Wang 等,2023),華泰研究 風險提示風險提示 1)大模型多模態數據融合大模型多模態數據融合不及預期不及預期:未來機器人大模型包含更多模態信息后,訓練難度存在不確定性,訓練結果可能不及預期。2)大模型指令生成速度大模型指令生成速度不及預期:不及預期:大模型指令生成速度能力的提升受多方面因素影響,存在不確定性。3)大模型泛化與涌現能力不及預期:大模型泛化與涌現能力不及預期:目前機器人大模型泛化和涌現能力仍在提升過程中,未來能否達到產業化落地,所需的性能標準存在不確定性。免
69、責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。21 機械設備機械設備 免責免責聲明聲明 分析師聲明分析師聲明 本人,倪正洋,茲證明本報告所表達的觀點準確地反映了分析師對標的證券或發行人的個人意見;彼以往、現在或未來并無就其研究報告所提供的具體建議或所表迖的意見直接或間接收取任何報酬。一般聲明及披露一般聲明及披露 本報告由華泰證券股份有限公司(已具備中國證監會批準的證券投資咨詢業務資格,以下簡稱“本公司”)制作。本報告所載資料是僅供接收人的嚴格保密資料。本報告僅供本公司及其客戶和其關聯機構使用。本公司不因接收人收到本報告而視其為客戶。本報告基于本公司認為可靠的、已公開的信息編制,但本
70、公司及其關聯機構(以下統稱為“華泰”)對該等信息的準確性及完整性不作任何保證。本報告所載的意見、評估及預測僅反映報告發布當日的觀點和判斷。在不同時期,華泰可能會發出與本報告所載意見、評估及預測不一致的研究報告。同時,本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。以往表現并不能指引未來,未來回報并不能得到保證,并存在損失本金的可能。華泰不保證本報告所含信息保持在最新狀態。華泰對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司不是 FINRA 的注冊會員,其研究分析師亦沒有注冊為 FINRA 的研究分析師/不具有 FINRA 分析師的注冊資格。
71、華泰力求報告內容客觀、公正,但本報告所載的觀點、結論和建議僅供參考,不構成購買或出售所述證券的要約或招攬。該等觀點、建議并未考慮到個別投資者的具體投資目的、財務狀況以及特定需求,在任何時候均不構成對客戶私人投資建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素。對依據或者使用本報告所造成的一切后果,華泰及作者均不承擔任何法律責任。任何形式的分享證券投資收益或者分擔證券投資損失的書面或口頭承諾均為無效。除非另行說明,本報告中所引用的關于業績的數據代表過往表現,過往的業績表現不應作為日后回報的預示。華泰不承諾也不保證任何預示的回報會得以實現,分析
72、中所做的預測可能是基于相應的假設,任何假設的變化可能會顯著影響所預測的回報。華泰及作者在自身所知情的范圍內,與本報告所指的證券或投資標的不存在法律禁止的利害關系。在法律許可的情況下,華泰可能會持有報告中提到的公司所發行的證券頭寸并進行交易,為該公司提供投資銀行、財務顧問或者金融產品等相關服務或向該公司招攬業務。華泰的銷售人員、交易人員或其他專業人士可能會依據不同假設和標準、采用不同的分析方法而口頭或書面發表與本報告意見及建議不一致的市場評論和/或交易觀點。華泰沒有將此意見及建議向報告所有接收者進行更新的義務。華泰的資產管理部門、自營部門以及其他投資業務部門可能獨立做出與本報告中的意見或建議不一
73、致的投資決策。投資者應當考慮到華泰及/或其相關人員可能存在影響本報告觀點客觀性的潛在利益沖突。投資者請勿將本報告視為投資或其他決定的唯一信賴依據。有關該方面的具體披露請參照本報告尾部。本報告并非意圖發送、發布給在當地法律或監管規則下不允許向其發送、發布的機構或人員,也并非意圖發送、發布給因可得到、使用本報告的行為而使華泰違反或受制于當地法律或監管規則的機構或人員。本報告版權僅為本公司所有。未經本公司書面許可,任何機構或個人不得以翻版、復制、發表、引用或再次分發他人(無論整份或部分)等任何形式侵犯本公司版權。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并需在使用前獲取獨立的法律意見,
74、以確定該引用、刊發符合當地適用法規的要求,同時注明出處為“華泰證券研究所”,且不得對本報告進行任何有悖原意的引用、刪節和修改。本公司保留追究相關責任的權利。所有本報告中使用的商標、服務標記及標記均為本公司的商標、服務標記及標記。中國香港中國香港 本報告由華泰證券股份有限公司制作,在香港由華泰金融控股(香港)有限公司向符合證券及期貨條例及其附屬法律規定的機構投資者和專業投資者的客戶進行分發。華泰金融控股(香港)有限公司受香港證券及期貨事務監察委員會監管,是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。在香港獲得本報告的人員若有任何有關本報告的問題,請與華泰金融控股
75、(香港)有限公司聯系。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。22 機械設備機械設備 香港香港-重要監管披露重要監管披露 華泰金融控股(香港)有限公司的雇員或其關聯人士沒有擔任本報告中提及的公司或發行人的高級人員。有關重要的披露信息,請參華泰金融控股(香港)有限公司的網頁 https:/.hk/stock_disclosure 其他信息請參見下方“美國“美國-重要監管披露”重要監管披露”。美國美國 在美國本報告由華泰證券(美國)有限公司向符合美國監管規定的機構投資者進行發表與分發。華泰證券(美國)有限公司是美國注冊經紀商和美國金融業監管局(FINRA)的注冊會員。對于其在美
76、國分發的研究報告,華泰證券(美國)有限公司根據1934 年證券交易法(修訂版)第 15a-6 條規定以及美國證券交易委員會人員解釋,對本研究報告內容負責。華泰證券(美國)有限公司聯營公司的分析師不具有美國金融監管(FINRA)分析師的注冊資格,可能不屬于華泰證券(美國)有限公司的關聯人員,因此可能不受 FINRA 關于分析師與標的公司溝通、公開露面和所持交易證券的限制。華泰證券(美國)有限公司是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。任何直接從華泰證券(美國)有限公司收到此報告并希望就本報告所述任何證券進行交易的人士,應通過華泰證券(美國)有限公司進行交易
77、。美國美國-重要監管披露重要監管披露 分析師倪正洋本人及相關人士并不擔任本報告所提及的標的證券或發行人的高級人員、董事或顧問。分析師及相關人士與本報告所提及的標的證券或發行人并無任何相關財務利益。本披露中所提及的“相關人士”包括 FINRA 定義下分析師的家庭成員。分析師根據華泰證券的整體收入和盈利能力獲得薪酬,包括源自公司投資銀行業務的收入。華泰證券股份有限公司、其子公司和/或其聯營公司,及/或不時會以自身或代理形式向客戶出售及購買華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)。華泰證券股份有限公司、其
78、子公司和/或其聯營公司,及/或其高級管理層、董事和雇員可能會持有本報告中所提到的任何證券(或任何相關投資)頭寸,并可能不時進行增持或減持該證券(或投資)。因此,投資者應該意識到可能存在利益沖突。評級說明評級說明 投資評級基于分析師對報告發布日后 6 至 12 個月內行業或公司回報潛力(含此期間的股息回報)相對基準表現的預期(A 股市場基準為滬深 300 指數,香港市場基準為恒生指數,美國市場基準為標普 500 指數),具體如下:行業評級行業評級 增持:增持:預計行業股票指數超越基準 中性:中性:預計行業股票指數基本與基準持平 減持:減持:預計行業股票指數明顯弱于基準 公司評級公司評級 買入:買
79、入:預計股價超越基準 15%以上 增持:增持:預計股價超越基準 5%15%持有:持有:預計股價相對基準波動在-15%5%之間 賣出:賣出:預計股價弱于基準 15%以上 暫停評級:暫停評級:已暫停評級、目標價及預測,以遵守適用法規及/或公司政策 無評級:無評級:股票不在常規研究覆蓋范圍內。投資者不應期待華泰提供該等證券及/或公司相關的持續或補充信息 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。23 機械設備機械設備 法律實體法律實體披露披露 中國中國:華泰證券股份有限公司具有中國證監會核準的“證券投資咨詢”業務資格,經營許可證編號為:91320000704041011J 香港香港
80、:華泰金融控股(香港)有限公司具有香港證監會核準的“就證券提供意見”業務資格,經營許可證編號為:AOK809 美國美國:華泰證券(美國)有限公司為美國金融業監管局(FINRA)成員,具有在美國開展經紀交易商業務的資格,經營業務許可編號為:CRD#:298809/SEC#:8-70231 華泰證券股份有限公司華泰證券股份有限公司 南京南京 北京北京 南京市建鄴區江東中路228號華泰證券廣場1號樓/郵政編碼:210019 北京市西城區太平橋大街豐盛胡同28號太平洋保險大廈A座18層/郵政編碼:100032 電話:86 25 83389999/傳真:86 25 83387521 電話:86 10 6
81、3211166/傳真:86 10 63211275 電子郵件:ht- 電子郵件:ht- 深圳深圳 上海上海 深圳市福田區益田路5999號基金大廈10樓/郵政編碼:518017 上海市浦東新區東方路18號保利廣場E棟23樓/郵政編碼:200120 電話:86 755 82493932/傳真:86 755 82492062 電話:86 21 28972098/傳真:86 21 28972068 電子郵件:ht- 電子郵件:ht- 華泰金融控股(香港)有限公司華泰金融控股(香港)有限公司 香港中環皇后大道中 99 號中環中心 58 樓 5808-12 室 電話:+852-3658-6000/傳真:+852-2169-0770 電子郵件: http:/.hk 華泰證券華泰證券(美國美國)有限公司有限公司 美國紐約公園大道 280 號 21 樓東(紐約 10017)電話:+212-763-8160/傳真:+917-725-9702 電子郵件:Huataihtsc- http:/www.htsc- 版權所有2023年華泰證券股份有限公司