《虛擬動點:2023虛擬現實產業布局白皮書(80頁).pdf》由會員分享,可在線閱讀,更多相關《虛擬動點:2023虛擬現實產業布局白皮書(80頁).pdf(80頁珍藏版)》請在三個皮匠報告上搜索。
1、虛擬現實產業布局白皮書虛擬現實產業布局白皮書虛擬動點 AI 時代虛擬現實產業領創者虛擬動點 AI 時代虛擬現實產業領創者2023 年 5 月前言前言虛擬現實技術作為引領全球新一輪產業變革的重要力量,正在不斷催生新場景和新業態。在 2021 年發布的國民經濟和社會發展第十四個五年規劃和 2035 年遠景目標綱要中,虛擬現實(VR)和增強現實(AR)已被列入重點發展方向,將迎來長足發展。然,不問來處,何知前路?于是,我們嘗試探尋歷史上工業革命、移動互聯網革命這兩波重要浪潮的“發起-高潮-平穩”歷程,嘗試推斷出:人類通往虛擬世界的節奏依然遵從技術成熟、商業可行、市場增量空間技術成熟、商業可行、市場增
2、量空間三個維度。底層技術框架:底層技術框架:硬件,軟件,內容,硬件、網絡層、計算力、虛擬平臺、協議和標準、支付方式、內容、服務和資產、消費者行為。商業可行性:商業可行性:相較于C端元宇宙目前仍有數據隱私、硬件設備發展不足等問題,B端制造業、商業的落地應用可能會到來得更快。B端與C端不同,主要聚焦在解決現實問題、降低溝通成本、加速項目落地,如軍事航空、工業仿真、影視娛樂、醫療、教育等。市場增量空間:市場增量空間:根據 IDC 對市場的預測,前瞻預計到 2026 年我國 AR/VR 行業市場規模將超 130 億美元。2026 年 VR 游戲、VR 培訓和 VR 協作預計將在中國成為 VR 主要應用
3、場景,三者合計占比超過50%。按現在的底層技術、商業可行性,虛擬現實的 B 端場景化突破已不遠。目錄目錄前言.21.關于虛擬現實.11.1 虛擬現實的概念.11.2 虛擬現實產業鏈.21.3 虛擬現實的關鍵技術.41.3.1 智能顯示:Micro LED 是 VR/AR 的終極顯示方案.41.3.2 感知交互:自然化、情景化、智能化.51.3.3 渲染計算:軟硬耦合、質量效率兼顧.61.3.4 網絡傳輸:5G+千兆網絡支撐虛擬現實全場景應用.61.3.5 內容制作:交互性體驗和支撐工具快速發展.72.虛擬動點關于虛擬現實產業的布局及能力.82.1 業務定位與產業布局.82.2 虛擬動點的核心能
4、力.102.2.1 空間計算.102.2.1.1 光學動作捕捉技術及產品.112.2.1.2 慣性動作捕捉技術及產品.182.2.1.3 光慣融合系統及產品.212.2.1.4 基于 3D 深度攝像機的動作捕捉.212.2.1.5 表演捕捉系統.222.2.2 AI 賦能虛擬現實.272.2.2.1 數字人交互.282.2.2.2AIGC 生成數字人.302.2.2.3AIGC 賦能內容制作.312.2.2.4 基于 RGB 攝像機的動作捕捉技術.322.2.2.5 建立動作數據資產(交易)平臺.322.2.2.6 建立動捕技術云平臺.332.2.2.7 動捕數據賦能 AI 大模型.342.2
5、.3 數字孿生:可操作+可計算+可視化.352.2.3.1 工業元宇宙體系的關鍵底座.362.2.3.2 人工智能賦能數字孿生城市.372.2.4 智能顯示技術.382.2.4.1 Micro LED:虛擬現實的終極顯示方案.382.2.4.2 量子點技術:點亮世界第一款 AR/VR 用 2 微米全彩 NPQD Micro LED陣列.413.虛擬動點數字技術賦能虛擬現實商業落地.433.1 強國:以作訓為主的航空航天、軍警安防系統.443.2 興業:以行業為場景的商業應用.463.2.1 虛擬現實+工業仿真.473.2.2 虛擬現實+影視制作.493.2.3 虛擬現實+游戲娛樂.543.2.
6、4 虛擬現實+醫療行業.553.2.5 虛擬現實+智慧教育.593.2.6 虛擬現實+體育訓練.613.2.7 虛擬現實+展館展示.643.2.8 虛擬現實+文化旅游.683.2.9 元宇宙體驗館.703.3 惠民:智能電視+AI 數字人走進家庭.724、共建虛擬現實產業生態.744.1 遍布全球的合作伙伴及營銷網絡.744.2 共建動作捕捉開發生態平臺(開發者社區).75參考文獻.7611.關于虛擬現實1.關于虛擬現實1.1 虛擬現實的概念1.1 虛擬現實的概念虛擬現實由來已久,錢學森院士稱其為“靈境技術”,指采用以計算機技術為核心的現代信息技術生成逼真的視、聽、觸覺一體化的一定范圍的虛擬環
7、境,用戶可以借助必要的裝備以自然的方式與虛擬環境中的物體進行交互作用、相互影響,從而獲得身臨其境的感受和體驗。隨著技術和產業生態的持續發展,虛擬現實的概念不斷演進。業界對虛擬現實的研討不再拘泥于特定終端形態,而是強調關鍵技術、產業生態與應用落地的融合創新。本書對虛擬(增強)現實(Virtual Reality,VR/Augmented Reality,AR)內涵界定是:借助智能顯示、感知交互、渲染處理、網絡傳輸和內容制作等新一代信息通信技術,構建身臨其境與虛實融合沉浸體驗所涉及的產品和服務。擴展現實(Extended Reality,XR)技術,是指通過計算機技術和可穿戴設備產生的一個真實與虛
8、擬組合、可人機交互的環境,是 AR、VR、MR 等多種形式的統稱。三者交互融合,實現虛擬世界與現實世界之間無縫轉換的“沉浸感”體驗。目前,我國虛擬現實關鍵技術進一步成熟,在畫面質量、圖像處理、動作捕捉、3D 聲場、人體工程等領域有了重大突破,產品供給日益豐富,應用創新生態持續壯大,已形成基本完整的虛擬現實產業2鏈和產業生態,虛擬現實產業市場規模不斷擴大,取得了階段性成果。1.2 虛擬現實產業鏈1.2 虛擬現實產業鏈虛擬現實產業鏈條很長,主要分為硬件終端、軟件系統、場景應用和內容生產。圖 1:虛擬現實產業鏈硬件終端方面,硬件終端方面,主要分為終端外設及關鍵器件,其中終端外設包括以 PC 式、一體
9、式、手機伴侶與云化虛擬現實終端,以及手柄、全向跑步機等感知交互外設。關鍵器件主要包括芯片、屏幕、傳感器、光學鏡片等。軟件系統方面,軟件系統方面,主要涉及面向虛擬現實的操作系統、開發引擎、SDK、API 等開發環境/工具,以及全景相機、3D 掃描儀、光場采集設備等音視頻采集系統。場景應用方面,場景應用方面,聚焦文化娛樂、教育培訓、工業生產、醫療健康、商貿創意等領域,呈現出“虛擬現實+”大眾與行業應用融合創新的特點。文化娛樂以游戲、視頻等強弱交互業務為主,在數量規模上占據主導,商貿創意可有效提升客流量與成交率,主要包括地產、電商、時尚等細分場景,工業生產與醫療健康應用早期局限于培訓指導,目前開始逐
10、漸向產品設計、生產制作或臨床診療等更為核心的業務領域3拓展。內容渠道方面,內容渠道方面,除互聯網廠商主導的內容聚合與分發平臺外,包含電信運營商發力的電信級云控網聯平臺,以及自助 VR 終端機、線下體驗店與主題樂園等線下渠道。來源:中國信通院、VRPC 整理圖 2:虛擬(增強)現實產業地圖(2020)41.3 虛擬現實的關鍵技術1.3 虛擬現實的關鍵技術結合虛擬現實跨界復合的技術特性,可劃分為“五橫一縱”的技術架構。其中,“五橫”是指智能顯示、感知交互、網絡傳輸、渲染計算與內容制作,“一縱”是指 XR(VR/AR/MR)。1.3.1 智能顯示:Micro LED 是 VR/AR 的終極顯示方案1
11、.3.1 智能顯示:Micro LED 是 VR/AR 的終極顯示方案在近眼顯示方面,從當前的技術發展上來看,VR/AR 顯示技術包括 OLED(有機發光二極管)/LCoS(硅基液晶)/DLP(數字光處理)/LBS(激光束掃描儀)等,但這些技術均無法兼顧成熟性、性能、成本等指標。Micro LED 是業內公認的最佳解決方案,相較其它技術,Micro LED 在亮度、對比度、工作溫度范圍、刷新率、分辨率、色域、功耗、延時、體積、壽命等多方面具備優勢。在屏幕輕薄度方面,Micro LED 和硅基 OLED 一樣都是自發光的方案,同樣不需要偏振器,不過由于 Micro LED 頂部只有玻璃基板,并且
12、 LED 芯片尺寸非常小,因此在輕薄度方面更勝一籌。在光效方面,Micro LED 相較于傳統 LCD 或 OLED 顯示器,能夠產生更多的“每瓦亮度”。測試數據顯示,Micro LED 只需要消耗一半的電能,就能夠達到硅基 OLED 的亮度。因此,Micro LED 可以讓 AR/VR 設備的續航更長久。在顯示性能方面,Micro LED 的分辨率理論上能夠達到硅基OLED 的數倍,可以輕松實現 8K 顯示;Micro LED 的對象切換時間為納秒級,比微秒級的硅基 OLED 更加出色,完全沒有了拖影的問5題;Micro LED 能夠實現更高的對比度和屏幕亮度,增強了陽光下的可讀性;此外,M
13、icro LED 的壽命更長,遠遠超過了硅基 OLED。當然,還有一點必須要提到的是,Micro LED 具有目前已知屏幕方案中最好的透明性,這對于 AR 設備而言非常重要。目前,市面上已發布的 Micro LED 智能眼鏡產品較少,此類產品大多處于初期開發階段,Micro LED 在良率、量產性、全彩化等方面還有待進一步的發展。此外,虛擬現實對于大場景應用更早落地,其中以利亞德為代表,在大尺寸 Micro LED 顯示端已實現小范圍應用。1.3.2 感知交互:自然化、情景化、智能化1.3.2 感知交互:自然化、情景化、智能化當前,手勢追蹤、眼動追蹤、表情追蹤、全身動捕、沉浸聲場、高精度環境理
14、解、三維重建、肌電傳感、氣味模擬、虛擬移動、觸覺反饋等諸多感知交互技術百花齊放,共存互補,并在各細分場景下呈現相應的比較優勢。未來,理想的人機交互可讓虛擬現實用戶聚焦交互活動本身,而忘記交互界面(手段)的存在,界面愈發“透明”,自然化、情景化與智能化成為感知交互技術發展的主航道。虛擬現實沉浸體驗的進階提升有賴于對視覺、聽覺等多感官通道一致性與關聯性的強化。而利亞德在全身動作捕捉(面部、手指等)而利亞德在全身動作捕捉(面部、手指等)、沉浸聲場(聲場預測系統、可變聲學環境系統、全景多聲道系統)沉浸聲場(聲場預測系統、可變聲學環境系統、全景多聲道系統)等領域技術積累深厚,產業鏈完整,正積極推動虛擬現
15、實技術商業應用。61.3.3 渲染計算:軟硬耦合、質量效率兼顧1.3.3 渲染計算:軟硬耦合、質量效率兼顧不同于影視工業中離線渲染技術對視覺保真度的極致追求,實時渲染主要用于無預定腳本的游戲等強交互應用,為保證渲染速度而在一定程度上對渲染畫質做出權衡妥協。虛擬現實渲染領域的主要技術挑戰在于面向傳統游戲的上述權衡范式難以直接套用于虛擬現實應用,表現為相比游戲畫面的主流渲染要求(如 FHD 分辨率所須每秒渲染六千萬像素并且不高于 150 毫秒的用戶交互時延),虛擬現實渲染負載與 MTP 時延須提升十倍量級才可達到初級沉浸的入門體驗。此外,在跨越了沉浸體驗的初始門檻后,渲染質量與效率間的平衡優化成為
16、時下驅動虛擬現實渲染技術新一輪發展的核心動因,即用戶需求的持續進階放大了渲染畫質、速度、成本、帶寬等多目標規劃的求解難度。在智能云控與以人為本的創新架構下,云渲染、人工智能與注視點技術觸發虛擬現實渲染計算 2.0 開啟。特別是隨著人工智能技術的演進,其正成為虛擬現實渲染質量與效能的倍增器與調和劑。1.3.4 網絡傳輸:5G+千兆網絡支撐虛擬現實全場景應用1.3.4 網絡傳輸:5G+千兆網絡支撐虛擬現實全場景應用2019 年 5 月工信部、國資委共同印發專項行動,確定開展“雙G 雙提”,推動固定寬帶和移動寬帶雙雙邁入千兆(G 比特)時代,明確提出 2019 年我國千兆寬帶發展的目標,2020 年
17、 9 月,國務院常務會議確定加快新型消費基礎設施建設,第五代固定網絡(F5G)千兆寬帶與 5G 網絡共同構成雙千兆接入網絡聯接,助力千兆城市建7設。當前,作為影響虛擬現實體驗的關鍵因素,5G 傳輸網絡正不斷地探索傳輸推流、編解碼、最低時延路徑、高帶寬低時延、虛擬現實業務 AI 識別等新的技術路徑,旨在實現無卡頓、無花屏、黑邊面積小、高清畫質切換無感知等用戶體驗,加速虛擬現實的規?;l展。來源:華為圖 3:面向虛擬現實業務的網絡傳輸技術供需匹配情況1.3.5 內容制作:交互性體驗和支撐工具快速發展1.3.5 內容制作:交互性體驗和支撐工具快速發展從用戶與內容應用間的交互程度看,虛擬現實業務可分為
18、弱交互和強交互兩類。前者通常以被動觀看的全景視頻點播、直播為主,后者常見于游戲、互動教育等形式,內容須根據用戶輸入的交互信息進行實時渲染,自由度、實時性與交互感更強。因此,對于 8K 分辨率及以上、高動態范圍、寬色域、高幀率全景拍攝、高性能拼接縫合、多相機同步、虛擬現實視頻與平面視頻混合制作等關鍵技術的研發,以及六自由度攝制、沉浸式音頻、全息視頻采集制作、渲染引擎、虛擬化身以及基于位置服務的三維數字空間8體驗等強交互內容生產技術都需要持續突破。2.虛擬動點關于虛擬現實產業的布局及能力2.虛擬動點關于虛擬現實產業的布局及能力2.1 業務定位與產業布局2.1 業務定位與產業布局虛擬動點定位于 AI
19、 時代虛擬現實產業領創者。業務覆蓋數字內容制作,機器視覺(動作捕捉)技術與產品,行業/場景虛擬現實解決方案,動作大數據數字資產與云服務、元宇宙體驗空間建設等領域。定位:定位:AI 時代虛擬現實產業的領創者。特點:特點:基于全球領先的一系列基于空間計算的機器視覺動作捕捉技術,結合 AI,大數據,云計算等技術構建虛擬現實產業生態閉環。使命愿景:使命愿景:引領交互,聯結虛實;用交互技術構建虛擬現實世界。業務布局:業務布局:虛擬動點將以 AI、機器視覺(動作捕捉)、物聯網、大數據、智能顯示AI、機器視覺(動作捕捉)、物聯網、大數據、智能顯示五大技術形成能力技術底座,完成包括虛擬現實核心技術、標準產品、
20、內容與能力、解決方案與服務等全方位的業務布局,并將與云廠商合作,建立動作數據資產平臺與云能力平臺,全面擁抱 AI 與云計算。9圖 4:虛擬動點虛擬現實產業技術與布局全景圖利亞德早在 2017 年就開始布局虛擬現實產業。通過收購美國Natural Point(以下簡稱 NP 公司),憑借全球領先的光學動作捕捉技術,利亞德迅速完成 VR 業務戰略布局,成為虛擬現實(元宇宙)產業連續6年盈利且利潤最高的公司,并多次入選“中國VR 50強企業”,2022 年排名第四。2023 年利亞德整合全集團的優勢資源注入虛擬動點,以虛擬動點為核心,在 AI 時代,全面進軍虛擬現實產業。未來,虛擬動點將與 NP 公
21、司、孚心科技、德火科技、數虎科技等公司合力發展人工智能、動作捕捉、內容制作、數字孿生、虛擬數字人開發等虛擬現實技術,并聚焦虛擬現實新場景和產業應用融合,構建從數據采集、存儲到內容加工制作,構建場景化的完整端到端能力,最終通過生態共建,以海量動捕數據賦能 AI 大模型。102.2 虛擬動點的核心能力2.2 虛擬動點的核心能力2.2.1 空間計算空間計算是麻省理工學院 Simon Greenwold 在其 2003 年的論文中引入的一個術語,是一種利用空間數據和算法,對空間信息進行處理和分析的技術。如今,空間計算作為新興技術領域的重要分支,已經受到越來越多的關注。在空間計算中,位置、形態和體積是三
22、個核心概念。位置是指物體的空間坐標,形態是指物體的外觀特征,體積則是指物體所占有的空間大小??臻g計算的實用化建立在人工智能(AI)、計算機視覺、芯片人工智能(AI)、計算機視覺、芯片與傳感器傳感器的技術進步之上,它重新定義了人與空間的關系,將虛擬與現實真正融合,為各個領域帶來了創新性的解決方案,蘊藏著巨大的產業價值。據國外市場研究機構評估,新技術進步的引入、智慧城市項目的發展以及物聯網/車聯網滲透率的不斷提高,空間計算解決方案的需求會產生 18.3%的年復合增長率。在增強現實(AR)和虛擬現實(VR)中,空間計算技術起著關鍵作用,讓用戶能以三維方式與虛擬或增強的現實環境交互,AR 和VR 中的
23、空間計算所需的技術包括計算機視覺、位置追蹤、物體識別和跟蹤、手勢識別、深度感知、圖形渲染、物理模擬、空間音頻等。目前,利亞德旗下虛擬動點在空間計算方向已擁有光學動捕、慣光學動捕、慣11性動捕、基于 AI 無標記點追蹤性動捕、基于 AI 無標記點追蹤等一系列基于空間計算的機器視覺動作捕捉技術,其空間計算的布局更多體現在數據采集、位置追蹤、物體跟蹤、內容制作、設備校準等領域。2.2.1.1 光學動作捕捉技術及產品2.2.1.1 光學動作捕捉技術及產品動作捕捉技術是感知交互以及新一代科幻影視及游戲制作的關鍵共性技術,目前主流的動作捕捉技術包括:基于計算機視覺的動作捕捉技術、基于慣性傳感器的動作捕捉技
24、術,而基于計算機視覺的動作捕捉技術又分為光學動作捕捉技術、基于 RGB 攝像機、基于 3D深度攝像機基于計算機視覺的動作捕捉技術、基于慣性傳感器的動作捕捉技術,而基于計算機視覺的動作捕捉技術又分為光學動作捕捉技術、基于 RGB 攝像機、基于 3D深度攝像機等不同形式。在光學動作捕捉系統中,在一個物理空間內架設多個紅外感應攝像機,在目標(如演員或者物體)上粘貼標記點,攝像機以每秒數幀的頻率識別計算標記點的數據,多臺攝像機間互相呈一定角度并互有疊加,每個標記點均可被至少兩臺攝像機識別,計算出 3D 坐標,最終被捕捉目標在這個物體空間內的動作將會被實時數字化記錄下來。標記點被越多攝像機識別,系統計算
25、出的位置就越精確。紅外光學動作捕捉系統由動作捕捉攝像機、動作數據分析軟件、傳輸設備、固定安裝設備等組成。12圖 5:光學動作捕捉系統圖光學動作捕捉攝像機識別到的標記點分為“被動式標記點”和“主動式標記點”。被動式標記點,被動式標記點,通過紅外光學動作捕捉攝像機反射紅外線,通過分析某個標記點相對于其他標記點的運動來獲得被追蹤標記點信息,從而識別到各個標記點。主動式標記點主動式標記點可實現自身發光并被攝像機識別,一些主動式標記點可通過脈沖方式閃爍,從而向攝像機發送 ID 信息。圖 6:被動式標記點 vs 主動式標記點二者各有利弊。主動式標記點可與自然光結合應用,更加可靠,可以支持超遠距離追蹤,但主
26、動式標記點需要有電子器件和供電器件支撐,相比被動標記點顯得笨重。而被動式標記點對光線較為敏感,不適合在自然光下進行捕捉,且與環境光對比度不足,無法進行超遠距離追蹤,因其設計多為粘貼式,使用方便。13虛擬動點 OptiTrack 動作捕捉系統虛擬動點 OptiTrack 動作捕捉系統是影視制作、虛擬現實、行業仿真、虛擬數字人、機器人訓練等行業領域的關鍵共性技術。憑借其超低 3D 精度、低延遲輸出、易于使用的工作流程以及一系列開發工具,已成為 3D 跟蹤系統的領導者。憑借其超低 3D 精度、低延遲輸出、易于使用的工作流程以及一系列開發工具,已成為 3D 跟蹤系統的領導者。圖 7:虛擬動點動作捕捉系
27、統配套設備終端目前,該套系統在以下 5 個領域深度應用。(1)虛擬制作(Virtual Production):(1)虛擬制作(Virtual Production):得益于系統的高精度、易用性及現場工具的完美集成,OptiTrackOptiTrack 是基于 LED 的虛擬制作流程的首選。NP 公司新發布的 CinePuck 工具,CinePuck 工具,采用光慣融合技術,可放置到實景攝像機、虛擬攝像機、布景和表演者身上,無漂移、衰減性能、EMI(電磁干擾)環境等問題,保證數據的精準性和穩定傳輸。圖 8:OptiTrack 的 Cine Puck,主要用于攝像機追蹤【應用案例】14電影曼達洛
28、人采用 LED 虛擬拍攝技術和系統,現場除了用LED 屏幕替代傳統綠幕,也使用 OptiTrack 動作捕捉系統為攝像機提供高精度、低延遲的數據追蹤?,F場在弧形屏幕上方共架設 42 臺OptiTrack 紅外攝像機用來追蹤現場攝像機的位置。圖 9:屏幕頂端架設 Prime41 紅外攝像機圖 10:實體攝像機上的主動式模塊圖 11:動作捕捉系統實時驅動 Unreal Engine 中的虛擬攝像機【技術優勢】A、遠距離追蹤。遠距離追蹤。Prime41 系列攝像機可識別最遠 30 米的標記點,追蹤、定位無死角。升級款 Prime X 41,升級款 Prime X 41,圖像處理采用 10 位灰度處理
29、,圖像質量更高,保證更好的質心和 3D 精度;B、超低延遲超低延遲。攝像機延遲僅 5.5m/s,保證現場數據實時同步。C、主動式追蹤技術主動式追蹤技術。OptiTrackOptiTrack 主動式模塊包含可發射 850nm 波長的紅外 LED 燈,動作捕捉攝像機可實時追蹤主動式模塊的位置信息,保證實時數據的穩定性。D、OptiTrack 實時 Unreal Engine 引擎插件OptiTrack 實時 Unreal Engine 引擎插件,可將追蹤到虛擬攝像15機的 6DOF 數據信息實時傳輸給引擎中,保證實體攝像機和虛擬攝像機位置一致,大大提高工作效率。(2)運動科學(Movement S
30、ciences):(2)運動科學(Movement Sciences):OptiTrack 動作捕捉系統提供世界領先的測量精度,簡單易用的工作流程和實時傳輸的 3D 跟蹤數據。該套系統操作簡便,針對主流數字測力臺、EMG 和模擬設備可即插即用,同時適配多種軟件,如 Visual 3D、MotionMonitor、MATLAB 以及其他第三方生物力學軟件和分析工具。圖 12:運動分析示意圖圖 13:測力臺示意圖圖 14:Visual3D 軟件界面NP 公司還提供了一款運動分析軟件 STT InSight。分析軟件 STT InSight。這是一套完整的、實時的科學和臨床三維人體運動分析解決方案。
31、簡化的工作流程,可輕松進行標記跟蹤、數據收集、實時分析和報告。16圖 15:STT Insight 軟件界面(3)虛擬現實(VR):(3)虛擬現實(VR):用于 CAVE 和 HMD 的低延時 VR 跟蹤。通過優化對虛擬現實跟蹤最重要的性能指標,構建了世界上最準確且易于使用的 VR 跟蹤設備。超低延遲體驗,使得任何頭戴式顯示器(HMD)或自動沉浸式環境都可以做到平滑跟蹤。圖 16:VR 大空間多人交互效果圖OptiTrack 動作捕捉系統提供免費開發工具,如 Unreal Engine、Unity、Motionbuilder 等插件;NatNet SDK 提供了對 OptiTrack 實時流的
32、免費、開放和有據可查的訪問,可輕松集成到一系列跟蹤和可視化技術中。流式傳輸數據采用單播(Unicast)或多播(Multicast),一鍵軸向調整(快速設置 Y 向上或 Z 向上),流式傳輸到包括 VRPN 和 trackd在內的行業標準中。圖 17:免費開發工具17【應用案例】OptiTrack 動作捕捉技術應用廣泛,包括影視娛樂、游戲制作、醫療培訓、工業仿真、軍事訓練、工廠模擬規劃、電力設施維護等。圖 18:南省博物館國寶迷蹤VR 多人游戲內畫面圖(4)機器人(Robotics):(4)機器人(Robotics):用于無人機、地面和工業機器人的 6DoF跟蹤。OptiTrack 采用業界最
33、先進的剛體解算器,可在多個目標的大范圍區域內提供完美的 6DoF(自由度)數據,是全球首選的機器人準確控制與精確定位的跟蹤系統。圖 19:多剛體在軟件中的顯示效果【應用案例】Quanser 的室內自主多智能體協同控制系統是一個以 OptiTrack動捕系統為基礎,集合無人飛行器和地面移動機器人為一體的多目標教學和研發平臺。該平臺為廣大研究人員提供了一個實現多智能體協調控制的工具,用戶很方便地就可以將自己的控制器和算法通過這個平臺工具進行實現及驗證。18圖 20:多目標教學和研發平臺展示(5)影視、動畫(Film and Animation):(5)影視、動畫(Film and Animatio
34、n):Prime 系列相機和 Motive軟件相結合,產生了世界上最大的捕獲量、最精確的 3D 數據。OptiTrack 動作捕捉系統則可以幫助用戶優化流程、快速實現影視制作、動畫生產。圖片來源:美國電影攝影師雜志專欄圖 21:電影獅子王使用 OptiTrack 技術跟蹤虛擬攝像機2.2.1.2 慣性動作捕捉技術及產品2.2.1.2 慣性動作捕捉技術及產品慣性動作捕捉系統主要是將慣性傳感器(IMU)綁定在人身體主要骨骼上,如足、小腿、大腿,實時測量出每段骨骼的旋轉,利用正向運動學(Forward kinematics,FK)和反向運動學(Inverse kinematics,IK)實時推導計算
35、出整個人身體的運動參數。19慣性傳感器主要包括加速度計、陀螺儀、磁力計。其中加速度計、陀螺儀、磁力計多采用 MEMS 形式,所以稱為 MEMS 慣性傳感器。三軸加速度計可以測量載體的三個軸向上的加速度,是一矢量,通過加速度可以計算出載體靜止時的傾角。三軸陀螺儀可測量出載體的三個軸向上角速度,通過對角速度積分可以得到角度。三軸磁力計可測量出周圍的磁場強度及與地球磁場的夾角。通過融合加速度、角速度、磁力值的數據可以精準的得到載體的旋轉。融合后的數據一般用四元數或歐拉角來表示。其中四元數形式如qaibjckd,歐拉角包含俯仰角(Pitch)、橫滾角(Roll)、偏航角(Yaw)。得到載體的旋轉后再擬
36、合各個骨骼的運動,從而計算出穿戴部位的運動姿態。圖 22:慣性動作捕捉系統原理圖利亞德旗下孚心科技專注于虛擬現實領域的硬件研發,致力于“慣性導航”“慣性動作捕捉系統”的研發,通過研究 MEMS 慣性傳感器開發出低延遲、低功耗、高精度的慣性動作捕捉系統。目前已發布慣性動作捕捉系統 FOHEART MAGIC、FOHEART X,數據手套FOHEART H1,慣性導航及姿態測量 MotionMars W1等多款產品,可廣泛應用于 VR、3D 人物動畫(動漫、游戲、影視)、運動科學、康復醫療、生物力學研究、體育訓練、軍事模擬等多個領域。20圖 23:慣性傳感器的慣性動作捕捉系統穿戴圖【應用案例】(1
37、)滑雪運動員動作及位置檢測系統(1)滑雪運動員動作及位置檢測系統滑雪運動員動作及位置監測模塊包括雪杖動作姿態監測模塊、雪鞋動作姿態監測模塊、肌電體溫傳輸模塊、主機模塊、上位機展示軟件共五部分,可以實時采集滑雪運動員的雪杖雪鞋作用力與動作姿態,肌肉電信號與體溫,并能夠通過無線的方式實時發送到遠程上位機。(2)國家田徑隊運動訓練器械傳感器技術(2)國家田徑隊運動訓練器械傳感器技術通過慣性動捕可統計運動員每次投擲或接力結果并自動生成數據分析報告。訓練器械傳感器測量系統時產生的運動數據,可根據甲方的運動員個人或團隊,利用數據挖掘的方法,提取出有效有價值的運動數據,并對數據進行多維度分析和統計,用直觀豐
38、富的圖表形式將訓練、成果展示出來。(3)驅動虛擬人物與 VR 水槍實時交互(3)驅動虛擬人物與 VR 水槍實時交互通過慣性動作捕捉設備,捕捉人體的實時動作(全身 17 個節點),和消防水槍(VR 水槍 3 個節點)的訓練動作,實現真實水槍與虛擬水槍的交互,可模擬水槍動作,可切換開關、大小、直流/開花等,水槍自重貼近真實。通過慣性動捕設備驅動人物與VR場景實時交互。212.2.1.3 光慣融合系統及產品2.2.1.3 光慣融合系統及產品利用整合光學動作捕捉系統和慣性動作捕捉系統的部分優勢,摒棄二者的劣勢,如光學動捕容易受遮擋的影響,無法正確的追蹤識別人/物的動作數據,而慣性不受遮擋的影響,容易出
39、現誤差累積的問題,利用光學動捕系統估算慣性傳感器的偏移誤差,通過濾波器對慣性傳感器的測量的噪聲進行濾波,最終通過 kalma 濾波器完成數據融合得到目標姿態,當部分光學標記點出現被遮擋時,光慣融合系統將未被遮擋的標記點信息和目標的姿態信息進行融合得到完成的 6 自由度位姿信息。光慣融合系統一般使用“冰球”傳感器,傳感器下方有螺絲孔,可以直接放在攝像機或道具上,虛擬動點正在開發更小巧、輕量,便于安裝的光慣傳感器模塊,用于人體關節及物體的追蹤和及數據采集。圖 24:OptiTrack 的 CinePuck 主要用于攝像機的追蹤2.2.1.4 基于 3D 深度攝像機的動作捕捉2.2.1.4 基于 3
40、D 深度攝像機的動作捕捉3D 深度攝像機與 2D 攝像機的區別在于,除了能夠獲取平面圖像外還可以獲得深度信息。3D 深度技術目前廣泛應用在人體步態識別、三維重建、SLAM 等領域。目前主流的 3D 深度攝像機的技術路線有:(1)雙目立體視覺;(2)飛行時間(Timeoffly,TOF);(3)22結構光技術等。雙目立體視覺即使用兩個 2D 平面攝像頭。兩個平面攝像頭獲得兩幅圖像,通過兩幅圖像算出深度信息。飛行時間即由雷達芯片發射出紅外激光散點,照射到物體后反射回雷達芯片的時間,由于光速已知,發射返回時間已知即可測量出攝像頭距物體的距離,sc v。結構光是攝像頭發出特定的圖案,當被攝物體反射回這
41、一圖案時,深度攝像頭再次接收這一圖案,通過比較發射出的圖案和接收的圖案從而測量出攝像頭距離被攝物體的深度信息。利用結構光方案的產品有微軟公司推出的 Kinect,其廣泛的應用在體感交互、人體骨架識別、步態分析等領域。圖 25:微軟公司的 Kinect2.2.1.5 表演捕捉系統2.2.1.5 表演捕捉系統表演捕捉技術是目前應用最廣的應用方式。在影視動畫制作、實時直播過程中,單獨的身體動作捕捉太過單一,無法滿足制作和直播需求,所以在動作捕捉技術基礎上增加面部捕捉技術和手指捕捉技術。(一)面部捕捉系統(一)面部捕捉系統面部捕捉(Facial Capture),也被稱為“面部表情捕捉(Facial2
42、3Expression Capture)”,它是動作捕捉(Motion Capture)技術的一部分,指使用相機等設備記錄人類面部表情和動作,將之轉換為一系列參數數據用于制作動畫的過程。與捕捉由關節點構成較為穩定的人體動作相比,面部表情更為細微復雜,對數據精度要求更高。隨著技術發展,大部分 3D 動畫、CG 電影、大型游戲越來越傾向于,選擇捕捉真人面部來完成角色動畫的制作。與人為制作的動畫角色表情相比,通過捕捉真人面部動作生成的角色會更具真實感。面部捕捉系統多采用計算機圖像技術進行面部表情的數據采集,演員需佩戴帶有攝像機的頭盔,保證攝像機隨時采集到演員面部信息,并對面部信息分析最終計算出表情數
43、據驅動角色模型。(1)Facegood 面部捕捉系統(1)Facegood 面部捕捉系統Facegood 推出的 AVATARY 數字人臉全系列軟件解決方案,配合Facegood 臉部表情數據采集硬件,通過視頻采集、臉部數據跟蹤分析、驅動及快速綁定等功能,可以高效完成數字人臉高品質內容創作。圖 26:實時面部捕捉效果展示(2)基于 Iphone 的面部捕捉系統(2)基于 Iphone 的面部捕捉系統APP 的 Iphone 手機可提供面部識別和追蹤功能,可區分用戶面部 50 多鐘特定肌肉的位置、拓撲結構和運動變化,通過 Epic Games 提24供的免費 live link Face 應用程
44、序,在 Unreal Engine 引擎中控制復雜的3D 角色面部動畫,支持手機和引擎中的實時錄制。圖 27:由 iPhone X 攝像頭實時驅動的面部網格體(二)手指捕捉系統(二)手指捕捉系統手指是人體最靈活的關節,手指動作在交流和表演中至關重要,手指捕捉系統價格高昂且效果較差,高性價比手指捕捉系統更易受到廣大用戶的青睞。(1)Manus 手套(1)Manus 手套Manus 手套采用全新的量子追蹤技術,通過使用亞毫米級精確指尖跟蹤傳感器提供高保真手指跟蹤。這些傳感器無漂移不受磁性影響,可提供高度準確和可靠的手指捕捉數據。手指追蹤的新標準通過使用精確的量子追蹤技術捕捉每一個細節動作,讓手指動
45、作捕捉不再有任何限制。在制作動畫時節省寶貴的時間,同時再現逼真的手部動作。25圖 28:Manus 手套Manus 手套可與目前主流的動作捕捉系統打通,如其專門為OptiTrack 動作捕捉系統打造的數據手套,可將實時的手指數據快速傳輸至 Motive 軟件中,然后將手指數據與 OptiTrack 身體數據一起作為單一來源進行流式傳輸和導出。(2)StretchSense(2)StretchSenseStretchSense 是新西蘭的 VR 手部捕捉解決方案商,動作捕捉手套采用獨特的拉伸傳感器和人工智能技術提供非常高品質的手指動作捕捉數據,所需的數據清理工作大大少于光學和慣性動作捕捉系統。新
46、推出的 MoCap Pro Fidelity,支持關節測量在內的所有手部運動,而不是采用復雜算法以補償盲點,這將有助于快速生成高質量的動作捕捉,其包含 26 個傳感器,分布在手指的末梢關節和手腕,可追蹤任意的手勢運動角度、捕捉更多細節,輸出的動捕效果更自然、準確。MoCap Pro Fedelity 可提供快速、高質量的手部動捕,將有望為角色動畫等場景帶來更多可能性。比如,游戲、VFX 工作室可以通過實時動捕來控制動畫形象。26圖 29:StretchSense 手套圖 30:StretchSense 軟件界面展示2021 年 OptiTrack 與 StretchSense 達成戰略合作,將
47、 StretchSense手指動作數據直接流式傳輸到 OptiTrack 軟件 Motive 中,從源頭上實現手部和身體數據的融合,實現實時的手指和身體數據,同時使用干凈的 StretchSense 手動數據減少后期生產時間,加快項目進度。圖 31:StretchSense 手指數據與 motive 身體數據的結合展示(3)FOHEAR H1 數據手套(3)FOHEAR H1 數據手套FOHEART H1 數據手套采用慣性傳感器與彎曲傳感器相融合的設計方案,常規數據手套具有 6 個慣性傳感器和 5 個彎曲傳感器,提高了捕捉精度;通信采用了 2.4GHz/5.8GHz 雙頻通信方案,使用過程中不
48、掉線、不丟幀,穩定可靠,低延時性;數據傳輸幀率達 100fps,精準捕捉手指姿態。FOHEART H1 數據手套校準簡單,三個簡單手勢,即可在 30 秒內完成校準;基于手指姿態算法的迭代更新,新增加了分指功能,大幅提升用戶體驗感。FOHEART H1 能適配 VR 頭27顯、HTC VIVE Focus3VR 一體機。軟件支持錄制、回放、導出數據(可導出 Bvh、Fbx 等格式),SDK可實時導入第三方軟件。數據手套客戶端軟件有豐富的插件,包括Unity、UE、MotionBuilder 等插件,可滿足實時直播場景的應用。圖 32:FOHEAR H1 數據手套產品圖2.2.2 AI 賦能虛擬現
49、實AI 作為虛擬現實的隱形核心技術,其升級將推動交互方式變革。在 VR 技術中,實現智能人機交互有三個關鍵要素多模感知能力多模感知能力、深度理解能力深度理解能力和多維表達能力多維表達能力。精細的多模態、高智慧模型可以幫助VR 設備以消費級的成本實現以語音控制為輔,以肢體動作為主的全新交互方式。通過引入多模態識別系統,在語音識別的基礎上,結合人臉識別、唇語識別、眼動追蹤,把多種維度的感知結合成為多模態系統,從而提升復雜場景識別效果。一方面 AI 在 VR 肢體定位和手勢交互技術上,讓高精度手勢識別成為可能;另一方面在內容中,AI 可以縮短創作時間,為元宇宙提供底層支持。以虛擬人數字人為例,AI
50、既是其能夠感知行為并做出反饋的核心要素,也是其掌握與學習技能的關鍵所在。此外,3D 模28型創建屬于“勞動密集型”行業,也將受益于 AIGC 升級。來源:國信證券研究報告圖 33:AI 幫助 AR2.2.2.1 數字人交互交互技術與人工智能技術2.2.2.1 數字人交互交互技術與人工智能技術是虛擬數字人最核心的技術場景,其中交互技術作為虛擬人的“骨與肉”,人工智能作為虛擬人的“靈魂”,好看的皮囊與有趣的靈魂,二者缺一不可。A、語音識別A、語音識別研究能實現人與計算機之間用自然語言進行有效通信的各種理論和方法,涉及的領域較多,主要包括機器翻譯、機器閱讀理解和問答系統等,即轉化自然語言數據為電腦語
51、言數據的技術,可幫助人類實現客戶服務、知識管理和智能搜索等操作。B、視覺識別B、視覺識別使用計算機模仿人類視覺系統的科學,讓計算機擁有類似人類提取、處理、理解和分析圖像以及圖像序列的能力。這一技術應用于自動駕駛、機器人、智能醫療、智能家居、智慧社區、智能安防等領域,通過計算機視覺技術從視覺信號中提取并處理信息。29C、動作捕捉C、動作捕捉通過捕捉記錄演員的面部表情、身體動作等運動軌跡,將其數據轉化為 CGI 角色運動動畫的一種技術驅動型方法。動作捕捉技術現如今已經普遍運用在電影、動畫以及游戲的制作中。虛擬動點基于全息柜的 AI 數字人系統,包含數字人渲染、聲音識別外放、語音驅動、RGB 攝像機
52、識別分析、全息展示等模塊,具有聲音檢測、語音識別、聲音合成、NLP 對話等功能,支持實時連接Chat GPT,用戶可完成真人實時的語音驅動數字人,還可通過 RGB攝像機采集真人動作,實時為數字人驅動賦能,助力數字人完成多場景、多領域應用。圖 34:湖南衛視你好星期六數字人小漾圖 35:利亞德旗下數虎圖像助力王者榮耀打造首位國風虛擬人“婉兒”同時系統還內置了數字人換裝、場景切換、機位切換(包含 VR相機視角)、直播推流等功能,豐富的數據資產庫為系統展示提供更多的內容支撐。目前市面上同類型軟件平臺存在諸多問題,如單 RGB 相機進行半身動作捕捉,同時還伴隨著捕捉范圍小,捕捉效果不穩定、應用場景單一
53、的局限性;基于慣性動捕設備的系統有誤差累計、容易受磁場干擾等問題。30而虛擬動點基于光學動捕技術的數字人系統平臺,采用紅外光學動作捕捉系統,能夠實現高精度、低延遲、高魯棒性的全身動作捕捉,保證數字人的穩定輸出,而光學動作捕捉系統的超廣范圍捕捉也決定了該系統平臺可垂直應用到各個領域。系統“傻瓜式”操作可幫助用戶快速了解系統的使用,同時通過打造數字與數據資產庫,可根據場景適配更好的資產,以滿足不用的應用體驗。2.2.2.2AIGC 生成數字人2.2.2.2AIGC 生成數字人AIGC(Artificial Intelligence Generated Characters)是一種最新的人工智能技術
54、,它可以用于創作高度真實的虛擬數字人,并且可以與人類進行無縫互動。首先,AIGC 技術可以幫助虛擬數字人更快地生成和優化。傳統的虛擬數字人需要勞動力去設計角色、制作動作等,成本高,效率低。而 AIGC 通過在大數據解析中學習,可以生成更有生命力的虛擬數字人,并且能夠快速調整、優化其形象、性格和行為。使得虛擬數字人變得越來越智能化和真實化,更好地與客戶進行交互和溝通,很大程度上降低了虛擬數字人的制作成本和時間成本。其次,AIGC 支持 AI 驅動數字人多模態交互中的識別感知和分析決策能力,使其更神似人。自然語言處理是數字人的大腦,直接影像交互體驗,而計算機視覺決定熟悉人面部表情和肢體動作。目前主
55、流的方式是圍繞 NLP 能力通過文本驅動,本質是通過 ASR-NLP-TTS等 AI 技術進行感知-決策-表達的閉環還驅動數字人交互。計算機視覺31(CV)目前數字人聲唇同步技術相對完善,在游戲中已經大量應用。再次,AIGC 技術能夠支持虛擬數字人應用到游戲、電影、醫療、汽車、手機等各個領域。AIGC 技術可以快速創作、優化和定制與人類高度相似、更自然、更智能的虛擬數字人物。例如,虛擬數字人可以在醫院進行病人的生命支持,為警察和消防員進行危險任務等需要人類不敢或人類無法完成的任務。同時,虛擬數字人也可以被用于零售、廣告等領域,為客戶提供虛擬購物體驗和產品感受。2.2.2.3AIGC 賦能內容制
56、作2.2.2.3AIGC 賦能內容制作以 Midjourney 和 Stable Diffusion 為代表的 AI 繪圖工具在創造性、高效性及易用性上達到了廣泛應用的標準;AIGC 工具的應用將大大提升了對于虛擬現實內容制作的效率和效果。一般 AI 工具參與流程環節如下圖 36 所示:使用 AI 工具直接生成基礎設計圖,再通過反復生成微調及人工修改進行細節優化。整個設計流程將極大提升效率。目前,AIGC 工具主要應用于內容制作團隊,包括概念創意生成、角色內容生成、場景深化設計等各環節。圖 37:數字人造型設計32圖 38:數字場景設計2.2.2.4 基于 RGB 攝像機的動作捕捉技術2.2.
57、2.4 基于 RGB 攝像機的動作捕捉技術利用 RGB 攝像機實現 3D 運動軌跡的捕捉是當下虛擬現實領域的前沿技術研究。RGB 攝像機即平面攝像頭,沒有深度信息。目前基于 RGB 攝像機的動作捕捉主要采用卷積神經網路(CNN)將稀疏的 2D 人體姿態凸顯檢測的原理?;?RGB 攝像機的動作捕捉目前可以捕捉人體局部和全身的運動姿態,且捕捉之間需要采集大量的數據樣本作為訓練數據集。RGB 攝像機在深度信息的預測上存在著偏差,任何一點錯誤的數據都會導致很大的偏差,穩定性極差。最大的挑戰在于攝像頭的遮擋以及快速的運動都是 RGB 攝像機很難追蹤到的。其優點在于不需要任何的穿戴,且所需要的 RGB
58、攝像機觸手可得,成本極低,這對大眾化的應用是一個不錯的選擇。圖 39:利用 RGB 攝像機進行姿態捕捉2.2.2.5 建立動作數據資產(交易)平臺2.2.2.5 建立動作數據資產(交易)平臺隨著元宇宙、虛擬現實產業的發展,全球不同領域不同應用場景33中大量基于位置關系的動作捕捉數據開始被采集,并被保存沉淀下來。虛擬動點憑借全球領先的光學動作捕捉和慣性捕捉技術在該領域具備先發優勢,集團將這些數據與全球領先的公有云平臺進行合作,建立基于動作捕捉的數據資產平臺,推動動作捕捉產業健康高速發展。(1)通過數據資源池中集中存放和管理數據,提高數據的準確性和一致性;(2)對于數據資源池中的敏感數據,采取加密
59、、權限管理等安全措施,保障核心數據資產安全;(3)動作數據資源池向用戶開放提供數據接口和數據查詢服務,減少數據的采集與存儲的重復,提高數據的利用率;(4)數據資源池可以為相關基于動作數據的應用程序提供標準數據接口,提供相關數據,相關應用程序可以直接調用資源池數據,便于動作數據快速使用適配,從而加快推進產業發展。圖 40:虛擬動點與云廠商合作建立動作大數據資產平臺2.2.2.6 建立動捕技術云平臺2.2.2.6 建立動捕技術云平臺云服務時代,過去需要本地部署安裝的行業軟件均可以實現云端34存儲、云端訪問、多人協作等功能。通過建立動捕技術云平臺,一方面實現動捕技術數據的云端存儲與發布,以及遠程多人
60、協作;另一方面,動捕軟件的部署與安裝需要具備足夠的專業知識,云平臺可實現軟件數據的集成統一,方便操作,大大降低時間和經濟成本。(1)動捕數據云(1)動捕數據云云端發布、存儲、分類、瀏覽、查看、編輯和多人協作動作捕捉數據,實現數據的備份和恢復;設置管理員權限,用于管理用戶和數據,以保證數據安全;實現數據的可視化分析和數據挖掘。(2)動捕軟件云(2)動捕軟件云實現動作捕捉軟件的集成,并統一動作捕捉數據格式;同步動作捕捉軟件的配置信息,并及時自動更新軟件版本;實現與其他云服務的集成,如云渲染等;結合數字人技術,豐富數字人動作數據庫。2.2.2.7 動捕數據賦能 AI 大模型2.2.2.7 動捕數據賦
61、能 AI 大模型AIGC 時代,基于 NLP 語音模型,只能聞聲看字,數字人的接入會有外化體驗,有“人”交互、有“人”溝通,但是數字人的動作僵硬,亟需大量的動作數據做支撐。利亞德旗下 OptiTrack 動作捕捉系統是影視制作、虛擬現實、行業仿真、數字人、機器人訓練等行業領域的關鍵共性技術,具有高精35度、低延遲等優勢,已為多領域用戶提供底層技術驅動和服務,目前公司已研發完成新的骨骼結算器,大幅提升了 OptiTrack 動作捕捉系統的跟蹤精度,即時標記點在嚴重遮擋的情況下依然可以獲得穩健、準確、可靠的追蹤數據,即抗遮擋功能,大大減少后期編輯時間,持續幫助用戶降本增效。依托動作捕捉系統大量采集
62、生成動作數據,形成動作庫大模型,為下一代 AI+數字人的動作訓練提供數據支撐。(1)建立動作采集基地(1)建立動作采集基地以虛擬動點石景山駐地為基地,完成高精度表演捕捉棚(包括動作捕捉、面部捕捉、手指捕捉等)以及數據資產采集制作基地的建設工作,形成海量云數據;(2)建立動作資產管理(交易)平臺(2)建立動作資產管理(交易)平臺打通云數據與資產管理平臺通路,支持資產確權(3D 資產版權確權登記)、資產管理(上傳、查詢、展示預覽)、資產交易與結算。2.2.3 數字孿生:可操作+可計算+可視化利亞德數字孿生平臺,是以數據資源為關鍵要素,以現代信息網絡、大屏幕顯示為主要載體,結合信息通信技術、人工智能
63、技術、數據模型輕量化技術、實時渲染技術、地理信息技術、時空數據融合技術于一體,實現全要素、多功能、多維度的大數據可視化展示及平臺運營管理。36圖 41:利亞德數字孿生平臺2.2.3.1 工業元宇宙體系的關鍵底座2.2.3.1 工業元宇宙體系的關鍵底座數字孿生既是傳統工業軟件、建筑設計軟件、城市管理軟件、動畫和內容生成軟件的數字化、平臺化和智能化數字化、平臺化和智能化升級,也是融合海量異構數據、體現物理本體的實時動態變化并循序漸進賦能上層海量應用的價值交付價值交付體系,更是支撐未來工業元宇宙和消費者元宇宙的形成和發展的必不可少的底層基礎設施。來源:數字孿生白皮書(2019)圖 42:數字孿生技術
64、架構數字孿生的核心不是簡單的精準數字化復刻和可視化呈現,還包37括數字化孿生內容的可計算與可操作??梢暬暮诵目梢暬暮诵氖墙?,完成物理對象的數字化,是數字孿生的雛形,但其生成的模型、數據是靜態、分散、隔離的,對物理世界的能動改造基本依賴于人工??捎嬎愕暮诵目捎嬎愕暮诵氖呛A慷嘣串悩嫈祿挠嬎?、解析和融合,建立實時映射的動態空間系統,對數據進行分析、理解,實現對物理世界的狀態跟蹤和問題診斷等功能??刹僮鞯暮诵目刹僮鞯暮诵氖菍I務指導和對未來情況的預測,并結合動態行業 knowhow 進行自我學習更新,對物理與數字世界同步進行實時智能改造,最終或賦能企業降本增效,或賦能個人創造出優質內容,從而
65、提升效率與體驗。2.2.3.2 人工智能賦能數字孿生城市2.2.3.2 人工智能賦能數字孿生城市近年來,數字孿生技術被認為是具有戰略性、顛覆性、先導性的技術,其應用場景已深入到城市治理、智慧園區、工業制造、醫療健康等新型智慧城市建設的方方面面,隨著“探索建設數字孿生城市”被寫入“十四五”規劃綱要中,數字孿生技術已成為構建新型智慧城市的重要技術手段。以大數據為中心的智能服務與生態建設,將實現全面深入地數字化、網格化、智能化,解決新型智慧城市建設過程中所涌現的問題。在這樣的強烈需求下,利亞德自主研發的城市管理數字孿生平臺(數字孿生城市沙盤)利亞德自主研發的城市管理數字孿生平臺(數字孿生城市沙盤)基
66、于多維地圖引擎構建 CIM 網格底座,對管轄區38域內各類城市資源要素進行融合關聯,實現數字虛擬空間與現實物理空間數據的同步更新和智能關聯,為城市管理提供數據融合觀察與分析計算服務。讓所有的數據變得有生命,實現全生命周期的大數據治理。進而支撐城市管理過程中的態勢研判、事件分析、綜合決策、綜合評價等場景應用,提升城市精細化治理水平與精準化決策能力。圖 43:利亞德打造張家口數字孿生城市平臺利亞德數字孿生平臺亮點:利亞德數字孿生平臺亮點:(1)資源要素多維可視化呈現,資源要素多維可視化呈現,助力全方位快速掌握城市資源與管理情況;(2)以地理場景為核心,實現多源多種類數據浸入化融合;多源多種類數據浸
67、入化融合;(3)數據實景化感知與深度分析)數據實景化感知與深度分析,實現資源要素運行模擬評估與試錯調試,降低城市運行成本。2.2.4 智能顯示技術2.2.4.1 Micro LED:虛擬現實的終極顯示方案2.2.4.1 Micro LED:虛擬現實的終極顯示方案目前,在 AR/VR(近眼顯示)領域,LCD 依然是主流的屏幕方案。根據相關統計數據,Oculus Quest 目前依然是市面上最受歡迎的AR/VR 設備,2021 年全球 VR 頭顯出貨量達 1095 萬臺,其中僅 Oculus一家的份額就已經占據 80%。而 Oculus Quest 的屏幕方案是 LCD。39不過,隨著各品牌逐漸選
68、擇基于硅基 OLED 打造 AR/VR 設備,預計硅基 OLED 將逐漸替代 LCD,成為全新的 AR/VR 屏幕方案。預計到 2027 年,大約 48%的 AR/VR 設備會選擇硅基 OLED。硅基 OLED 結構包括驅動背板和 OLED 器件兩個部分,融合了CMOS 工藝和 OLED 技術的優勢。因此,硅基 OLED 具有體積小、重量輕、分辨率高、對比度高、功耗低、性能穩定等特點,是一種非常適用于近眼顯示的微顯示技術。和傳統的 LCD 方案相比,硅基OLED 不僅顯示性能出色,也更加輕薄,有助于打造更方便攜帶的AR/VR 設備。所以我們看到,蘋果首款 AR/VR 設備選擇了硅基 OLED,
69、而主要的面板供應商三星和 LG 也都在布局硅基 OLED。不過,我們必須要提到的是,實際上硅基 OLED 目前所提供的各種性能優勢,Micro LED 都能夠做的更加出色。在屏幕輕薄度方面,在屏幕輕薄度方面,Micro LED 和硅基 OLED 一樣都是自發光的方案,同樣不需要偏振器,不過由于 Micro LED 頂部只有玻璃基板,并且 LED 芯片尺寸非常小,因此在輕薄度方面更勝一籌。在光效方面,在光效方面,Micro LED 相較于傳統 LCD 或 OLED 顯示器,能夠產生更多的“每瓦亮度”。測試數據顯示,Micro LED 只需要消耗一半的電能,就能夠達到硅基 OLED 的亮度。因此,
70、Micro LED 可以讓 AR/VR 設備的續航更長久。在顯示性能方面,在顯示性能方面,Micro LED 的分辨率理論上能夠達到硅基OLED 的數倍,可以輕松實現 8K 顯示;Micro LED 的對象切換時間40為納秒級,比微秒級的硅基 OLED 更加出色,完全沒有了拖影的問題;Micro LED 能夠實現更高的對比度和屏幕亮度,增強了陽光下的可讀性;此外,Micro LED 的壽命更長,遠遠超過了硅基 OLED。當然,還有一點必須要提到的是,Micro LED 具有目前已知屏幕方案中最好的透明性,這對于 AR 設備而言非常重要。近年來,除了近眼顯示應用外(VR/AR 等消費電子產品),
71、MicroLED 頻繁“解鎖”新應用場景,特別是家用和商用大屏場景的市場規模正在快速起步。首先是戶外應用。首先是戶外應用。Micro LED 具有高光效、高可靠性的特點,可滿足大多數戶外應用場景的需求。此外,防水性能方面,Micro LED尺寸較小,便于布局防水材料;散熱方面,Micro LED 的驅動芯片可以實現高度集成、動態節能,搭配 Micro LED 高光效的特性,可以較輕易地滿足戶外應用場景的節能需求;防護性能方面,Micro LED 可以增加更多防護措施,如高低溫、紫外線以及防護等。其次是 VP/XR 虛擬拍攝其次是 VP/XR 虛擬拍攝。近年來,XR 虛擬拍攝得到極大發展,這一應
72、用場景對屏幕的要求很高,包括無色偏、廣色域、高光效、高刷新、高灰階等。常規的 LED 屏幕難以達到這一要求,Micro LED則不同。Micro LED 可以滿足 VP/XR 虛擬拍攝場景對屏幕的各種苛刻的要求,并在保證屏幕的顯示效果無限接近真實世界的同時,達到節能減排的要求,助力實現碳中和。第三是球幕影院和飛行影院。第三是球幕影院和飛行影院。球幕屏不僅可以在影院中應用,還適用于軍事、數字展陳等場景。軍事、數字展陳等場景。球幕屏作為一種非常規形態屏,若使41用大尺寸 LED,將面臨拼接難的問題,而采用 Micro LED 則可以輕松實現各種屏幕對外觀的要求;另一方面,球幕影院對聲道的要求較高,
73、Micro LED 亦可輕松滿足這些要求。市場空間方面,球幕屏的尺寸越來越大,這也就意味著一個球幕屏需要幾十、上百 KK 顆 MicroLED,這一趨勢對于 Micro LED 產業而言有較大的推動作用。最后是元宇宙體驗艙。最后是元宇宙體驗艙。元宇宙要實現沉浸式體驗則離不開顯示終端。在各種顯示技術中,Micro LED 不僅可以帶來更好的顯示效果,還能提供更豐富的產品布局及外觀設計空間,是提升元宇宙體驗艙體驗感的一大幫手。此外,Micro LED 還將在汽車(車載顯示)、航空航天(飛行數據顯示和導航)、醫療(醫學影像診斷和手術導航)等制造業、商業領域發揮重要作用。2.2.4.2量子點技術:點亮
74、世界第一款AR/VR用2微米全彩NPQD MicroLED 陣列2.2.4.2量子點技術:點亮世界第一款AR/VR用2微米全彩NPQD MicroLED 陣列2017 年,利亞德投資全球領先的原位量子點技術解決方案提供商賽富樂斯半導體(以下簡稱“Saphlux”),在量子點、AR 屏幕、工藝制程量子點、AR 屏幕、工藝制程等技術端展開合作開發。Saphlux 是一家專注 Micro LED 光引擎創新的顯示技術的企業,擁有納米孔量子點(NPQD)和半極性氮化鎵(Semi-polar GaN)兩項核心原創技術。憑借獨創的 NPQD(納米孔量子點)顏色轉換技術,Saphlux42成功解決了微顯示芯
75、片紅光效率低和 RGB 集成問題,實現了更高效率和更低系統成本的大規模全色微顯示芯片及微型顯示器的生產?;谧钤擁椉夹g,設計并制造出適用于小間距 LED 顯示的 NPQD R1芯片,以及適用于 AR/VR 眼鏡的 NPQD T1 微型顯示器。圖 44:NPQD R1 芯片與 NPQD T1 微型顯示器NPQD 是指基于納米孔結構(Nanopores)的量子點(QuantumDot)芯片級集成技術。納米孔結構具有獨特的散射效應,能夠百倍增加有效光徑,大幅提高光轉換效率,并增強量子點穩定性。該技術能夠解決量產 Micro-LED 過程中的一些核心材料問題,包括分 Bin 難題、低紅光 EQE 問題
76、、色彩偏移、高材料成本等,并使得小尺寸、高分辨率的全彩 Micro-LED 顯示陣列的實現成為可能。在 AR Micro LED 顯示應用中,由于芯片尺寸變小帶來的紅光效率和三色集成問題是目前阻礙產業發展的主要瓶頸。傳統鋁銦鎵磷(AlInGaP)紅光 Micro LED 的光效會隨著芯片尺寸的微縮而急劇下降,導致現有的 AR 中用的紅光 Micro LED 存在效率低,發熱量大,亮度不足等諸多問題。Saphlux 團隊針對市場需求,對小于 5 微米的紅光 NPQD MicroLED 進行了優化,在提升效率的同時解決了色串擾、色純度等方面43的問題,推出了新一代的紅光 NPQD Micro LE
77、D 光引擎。圖 45:T 系列 0.39inch Micro LED 顯示屏 2023 年 5 月在美國 SID 展出該引擎可在 48 萬尼特的亮度下,實現 5.4%的 WPE,并在亮度增至 74 萬和 93 萬尼特時,仍保持 4.2%和 3.5%的 WPE。其芯片的綜合紅-藍能量色轉換效率達到 48%,紅-藍光子轉換效率達到 67%,并通過了 3000 小時的第三方上屏可靠性測試,真正將高效、高亮度、高可靠性的紅光 NPQD Micro LED 推到商用階段。2021 年及 2022 年,Saphlux 分別發布 2 微米全彩 NPQD MicroLED 及紅光 NPQD Micro LED
78、 光引擎(這是世界上第一款 AR/VR用 2 微米全彩 NPQD Micro LED 陣列這是世界上第一款 AR/VR用 2 微米全彩 NPQD Micro LED 陣列),實現了超過 67%的光子轉換效率,首次將全彩 AR Micro LED 的性能提升到了應用標準。3.虛擬動點數字技術賦能虛擬現實商業落地3.虛擬動點數字技術賦能虛擬現實商業落地隨著虛擬現實產業鏈條的不斷完善以及豐富的數據累積,虛擬現實將與各行業充分結合,展現出強大的“飛輪效應”,帶動整體產業鏈迎來爆發性增長和行業變革,催生出更多商業模式并創造更多的商業價值。目前,“數字孿生”概念正逐步興起,“虛擬現實+行業”的模式日趨明顯
79、,虛擬現實技術面向 B 端的應用日益廣泛,如智慧城市、44工業仿真、航空航天、軍事安防、影視娛樂、智慧醫療、智慧教育等領域,成為各行業數字化轉型的一大助力。資料來源:前瞻產業研究院圖 46:虛擬(增強)現實行業產業鏈3.1 強國:以作訓為主的航空航天、軍警安防系統3.1 強國:以作訓為主的航空航天、軍警安防系統行業痛點:行業痛點:虛擬現實技術在軍事航天領域的應用,有一些“共同點”軍事和航天作戰無法在現實世界中重建。因此,虛擬現實可以幫助實驗者在現實生活中對稀有、危險或昂貴的設備進行模擬訓練;同時,經過虛擬現實仿真操作,可以幫助工程師設計、改進更實用、更安全、更高性能的武器裝備、航空設備。應用方
80、案:(1)飛行員訓練系統應用方案:(1)飛行員訓練系統利亞德自研的飛行員訓練系統(LED 球幕視景顯示系統),作為視景成像系統的重要組成部分,采用小間距 Micro LED 顯示產品,以共陰技術為驅動,將視景成像計算機輸出的視頻信號經過綜合處理后,45驅動 LED 球幕,呈現逼真、穩定和實時的座艙外景象模擬視覺信息,為飛行員構建一個高沉浸感全景虛擬訓練空間。圖 47:飛行員訓練系統(整球)示意圖(2)虛擬現實模擬訓練虛擬現實模擬訓練軍事領域的仿真訓練是通過模擬實際的車輛、士兵和戰斗環境來培養小型單位或單兵的戰斗技能。目前,該項技術(系統)已廣泛運用于各軍/兵種的單兵單裝訓練、作戰指揮訓練、戰役
81、戰術訓練等各個環節。圖 48:各類軍事訓練(3)國防設備的設計、優化和維護(3)國防設備的設計、優化和維護許多國防設備都有著復雜精密的機電系統,而且并非所有設備都是在工程師構思時所考慮的條件下進行使用。而虛擬現實技術則是設46計和優化軍事裝備的理想工具。在身臨其境的可視化和交互中運行測試,這在開發航天器等大型產品時非常有效。虛擬現實技術可幫助用戶以 1:1 的比例可視化設計并實時進行修改。(4)敏感國防項目或軍事任務的遠程協作(4)敏感國防項目或軍事任務的遠程協作隨著云技術和 5G 通信技術的普及,相隔千里的多個軍事研究實驗室也可以實現無縫協同。運用虛擬現實系統,多個用戶可以實時,大規模地使用
82、相同的 3D 模型。在軍事任務中,虛擬現實系統為信息收集開辟了新的可能性,操作員將能夠在真實渲染的同時移動傳感器,增加操作者的隱蔽性。3.2 興業:以行業為場景的商業應用3.2 興業:以行業為場景的商業應用面向未來,虛擬現實擁有無限可能、無限能量、無限前景,必將推動不同領域的跨界融合,應用滲透至生產生活的各個方面。也將與各行各業結合發展,引導數字化轉型新方向,真正實現“虛擬現實+”的發展模式,賦能產業、深化產業,助力數字經濟的快速發展。資料來源:今日頭條未來智庫圖 49:2025 年中國 VR/AR 企業級應用市場規模預測473.2.1 虛擬現實+工業仿真3.2.1 虛擬現實+工業仿真行業痛點
83、:行業痛點:汽車、高鐵、飛機、船舶等工業制造業在設計評測、生產制造、維修培訓等過程中,存在造價昂貴、數據誤差大、人員參與程度較低等問題;同時高鐵,船舶,飛機等大型設備,在展覽展示中,受時間、空間、成本所限,很難將完整產品呈現出來。應用價值:應用價值:隨著虛擬現實技術的進一步發展,除了造型設計,貫穿產品全生命流程均有相應的仿真應用,如概念設計階段、初步設計階段、仿真驗證階段、試制定型階段、市場宣傳及銷售等都可以采用動作捕捉、虛擬現實(VR)、增強現實(AR)、混合現實(MR)綜合技術輔助??偛贾?、人機工效、造型評審、工藝規劃等部門都可以提供相應的快速仿真驗證解決方案,大幅縮短開發周期,降低開發成
84、本。圖 50:工業仿真多場景應用應用案例:(1)整車總布置人機工效虛實結合驗證解決方案應用案例:(1)整車總布置人機工效虛實結合驗證解決方案基于 SoErgo V3.0 專業人機工程仿真分析軟件的車用虛擬現實解車用虛擬現實解48決方案決方案。SoErgo 引入“物理臺架+虛擬現實”的方法,運用“光學動作捕捉系統+柔性臺架+沉浸式顯示設備”,通過虛擬數字人虛擬數字人的第一視角提升仿真過程的交互體驗,并在 VR 工業軟件的驅動下實現研發設計數據的虛擬仿真驗證,提升人機工程目標設定的精準度和驗證效率。SoErgo V3.0 具有最新中國標準人體數據,可以為仿真分析提供可靠的數據支撐;支持 CAD、B
85、IM、GIS 等多種數據格式導入,可以快速搭建仿真環境;具有高精度的物理引擎,可通過動捕設備驅動虛擬數字人進行精確的汽車碰撞試驗及檢測分析。汽車碰撞試驗及檢測分析。圖 51:汽車碰撞試驗現場演示實況圖圖 52:奧迪車輛設計與評估系統設計師工作(2)移動數字飛機平臺(2)移動數字飛機平臺為解決傳統展覽展示的痛點,運用目前主流的動作捕捉、虛擬現實(VR)、增強現實(AR)技術,通過實物仿真艙段與 VR、AR 等技術的虛實結合的形式向客戶展示飛機客艙段的布置、性能和功能,包括客艙主要空間布局(實物比例 1:1)、設備布置、客艙設備主要功能、供客戶參觀、體驗,從而提升展示效果,節省展項成本。49圖 5
86、3:半實物移動數字飛機平臺演示實況圖3.2.2 虛擬現實+影視制作3.2.2 虛擬現實+影視制作行業痛點:行業痛點:傳統影視行業在進行拍攝工作時,往往采取實景采景或綠幕合成的方式。實景拍攝實景拍攝效果好,但時空限制多、轉場成本高,遇上現實中不存在或不便采景的場景時還需要另外搭景,既占地又耗時耗力;而綠幕合成方案綠幕合成方案雖然拍攝搭建便利,但后期制作時間長,成本高,易出現“溢光”現象,影響成片效果。無實物場景對演員的想象力及導演的全局把控力也有更高的要求,提高了拍攝溝通成本,容易出現返工。虛擬制片(Virtual Production,VP)和擴展現實(Extended Reality,XR)
87、的發展,正在推動影視、娛樂、廣告、教育等越來越多的行業重新構想講故事和內容創作的方法,為觀眾提供前所未有的深度沉浸式體驗。應用方案:應用方案:利亞德虛擬動點是全球最早提供影視級動作捕捉技術解決方案的公司之,也是國內唯一可同時提供影視預演(基于光學動捕系統)影視預演(基于光學動捕系統)和虛擬拍攝(基虛擬拍攝(基于 LED 系統)于 LED 系統)綜合解決方案的中國企業,可為用戶提供“虛擬制片數字化工業化生產全流程”方案,即從劇本創意、美術設計、數字資產,到影視預演,虛擬拍攝以及影視評審(LED 放映廳)50的整體解決方案,有效降低制片成本,提升拍攝質量和效率。圖54:虛擬動點具備虛拍核心競爭力(
88、藍色部分)并可提供完整解決方案圖 55:虛擬動點可提供各類虛拍影棚整體解決方案(1)影視預演(表演捕捉棚)(1)影視預演(表演捕捉棚)影視預演采用后期前置化的理念優化影視制作流程,在影片正式拍攝前,使用低質量模型布置場景,通過表演捕捉系統采集演員動作驅動虛擬形象展示演員走位,從而快速完成取景、攝像機、演員調度等工作,且可預測拍攝時可能出現的問題,供制片方和劇組各部門主創在正式拍攝時參考,幫助制作方降本增效。影視預演對推動影視工業化發展有重要作用。(2)虛擬拍攝(虛擬拍攝棚)(2)虛擬拍攝(虛擬拍攝棚)虛擬拍攝主要包括兩個領域的應用,VP 虛擬制片(實時 LED 虛擬拍攝技術)和 XR 虛擬拍攝
89、。VP 虛擬制片虛擬制片(實時 LED 虛擬拍攝技術)和 XR 虛擬拍攝。VP 虛擬制片,是指一系列計算機輔助制作和電影可視化制作的數字化工作流程及方法,綜合運用 LED 顯示技術、動作捕捉技術和虛幻引擎,實時渲染還原 3D 模型創建的虛擬場景,將現實與虛擬影51像完美融合,提升電影工業數字化進程,增效降本。虛擬動點提供的虛擬拍攝的整套系統由高品質 LED 屏幕、攝影機追蹤系統、VFX 渲染服務器,控制系統、燈光系統以及同步系統等組成。其中,LED 屏幕質量直接決定了影片畫面品質以及影像空間的真實感,利亞德 Micro LED 顯示技術和產品優勢在此凸顯。圖 56:VP 虛擬制片拍攝效果(長影
90、第三影棚)XR 虛擬拍攝,XR 虛擬拍攝,是實現虛實結合的方式之一,在拍攝過程中使用MR 和 AR 結合的視覺表現方式,通過軟件算法將虛擬圖像與現實場景結合起來,在有限的 LED 顯示屏范圍內,達到無限空間虛擬場景融合的效果。圖 57:XR 虛擬拍攝效果(所見即所得)XR 虛擬拍攝系統的基礎構成包含LED 屏幕系統、燈光音響、攝像機系統、攝像機追蹤系統、控制服務器、內容渲染服務器等,通過搭載混合現實系統軟件,可在較小的空間里呈現出無限寬廣、不同52風格、不同場景,更富有創意的演播環境,使用眾多不同風格的環境空間設定快速制作節目,達成1=N個演播室的應用價值。應用案例:(1)影視預演(動作捕捉棚
91、)應用案例:(1)影視預演(動作捕捉棚)瘋狂的外星人運用了頂級的“動作捕捉”技術與系統,虛擬動點為影片制作出939顆特效鏡頭,幫助主演則克服人類的肢體特征,去演繹一個短手短腳、比自己小兩倍之上的外星生物。刺殺小說家是一部完全由中國團隊打造的特效巨制,運用了目前最前沿的表演捕捉、虛擬拍攝、虛擬預演等制作手法,節省大量時間、人力、制作成本。圖 58:瘋狂外星人 VS 刺殺小說家虛擬動點為三體提供了專業的動捕技術服務支持虛擬動點為三體提供了專業的動捕技術服務支持。運用“掃描+動捕”“掃描+動捕”的方式 1:1 還原真實人神態、身體姿勢及行動細節;通過對 2D 圖像快速進行 3D 重建,準確識別標記點
92、并運算輸出標記點質心數據,反饋系統通過算法計算實時驅動虛擬化身,保證游戲世界中虛擬形象實時交互。53圖 59:三體主演動作捕捉現場(2)虛擬拍攝(VP/XR 虛擬拍攝棚)(2)虛擬拍攝(VP/XR 虛擬拍攝棚)4 月 25 日,由利亞德(虛擬動點)與秀加科技聯合投資打造的,長沙最先進的影視級虛擬拍攝影棚-馬欄山虛擬制作基地正式啟動。影棚采用利亞德先進的 LED 小間距屏幕(P1.9)LED 小間距屏幕(P1.9),能滿足挑剔的色域色溫控制要求,呈現美輪美奐的影像質感;依托利亞德旗下德火科技的 XR 虛拍技術XR 虛拍技術、虛擬動點的動捕技術動捕技術,搭配頂級 4K 攝錄系統頂級 4K 攝錄系統
93、、多訊道高清導播系統,將為客戶提供符合“好萊塢電影 VP、XR 虛擬拍攝標準”“好萊塢電影 VP、XR 虛擬拍攝標準”的虛擬拍攝場地,可提供電影/電視/廣告虛擬制片(VP)、XR 虛擬舞臺、XR 虛擬演播廳等全球領先的虛擬拍攝綜合解決方案。圖 60:長沙 XR 虛擬拍攝影棚演出拍攝圖 61:Planar&Orbital Studios Open House圖 62:新華社虛擬演播廳 VS 2022 全國兩會跨屏訪談54圖 63:GOLIATH-Virtual Production Short Film 圖 64:Resolution Production Studio3.2.3 虛擬現實+游戲
94、娛樂3.2.3 虛擬現實+游戲娛樂行業痛點:行業痛點:在傳統游戲制作流程中,常通過建模的方式來還原人體動作姿態,但由于動作復雜,建模往往無法呈現更多細節,容易造成人物失真。在休閑娛樂領域,傳統文娛體驗則存在互動性有限、社交性不足、體驗形式單一等問題。應用價值:應用價值:動作捕捉技術是通過定位主體在三維空間中的空間坐標來追蹤并記錄其運動軌跡,Optitrack 通過數字技術采集真人動作數據,綁定到游戲角色的骨骼上,1:1 還原其動作,真實生動。如今,動作捕捉已成為 3A 游戲的標準配置,是國內外游戲制作中最常用的一項技術。此外,虛擬現實支持融合型、分享型和沉浸型數字內容與服務,有助于圍繞信息技術
95、融合創新應用,打造信息消費升級,培育中高端消費領域新增長點。應用案例:應用案例:(1)游戲制作:游戲制作:使命召喚:現代戰爭是一款第一人稱射擊游55戲,在游戲制作過程中,通過 OptiTrack 光學動捕技術追蹤身著動捕服的演員,借助 Marker 反射的紅外光,對演員的動作進行捕捉并生成動作數據,同時記錄演員說話時的肌肉動態和細微表情變化,實時驅動游戲中人物形象的運動,為演員拍攝和攝制組在藝術層面的盡情發揮提供更廣闊的空間。圖 65:游戲使命召喚制作(2)商業娛樂:虛擬動點與華銳 Gamebay 合作為用戶打造了一個兼具娛樂性的運動新方式,給玩家及親友提供一種玩樂新場景,靈活融合多款沉浸式互
96、動游戲,讓不同年齡層的用戶在標準的虛擬空間中自由切換各種 IP 主題的沉浸式互動體驗,通過多樣的對抗和互動游戲模式,不同模式對應不同年齡段玩家的需求。圖 66:互動游戲體驗3.2.4 虛擬現實+醫療行業3.2.4 虛擬現實+醫療行業行業痛點:行業痛點:56(1)臨床治療:(1)臨床治療:受醫療儀器精度所限制,臨床手術大多依賴 X光片、微型探針以及醫生臨床經驗,對醫生職業水平要求極高,并需要大量醫療人員配合。此外,對于微創手術(MIS),如膝關節鏡,自動化程度低,醫源性損傷嚴重。機器人輔助骨科手術需要更高精確、自動化的標定操作,以提高空間精確性,減少醫源性損傷。超高精度醫療儀器結合數字孿生、AR
97、 技術則將有效解決這一行業痛點。(2)醫療康復:超高精度醫療儀器結合數字孿生、AR 技術則將有效解決這一行業痛點。(2)醫療康復:一直以來,受人口基數大,醫療資源有限等因素影響,我國的術后康復系統有待完善。目前醫療康復領域多采用定期 X 光片、核磁等檢測方式,若實現更精準的恢復判斷,則需要數據化采集及分析等技術介入。(3)醫療培訓:(3)醫療培訓:主要采用模擬醫學模型、搭設簡單場景,道具/場景費用高,真實度低;培訓效率低、現場感差;評測數據無法準確記錄并考評,已引入的虛擬現實技術和產品仍存在技術壁壘,如不支持自由行走和多人互動模式;只有視覺效果,無法與場景進行互動;無觸覺體驗,無法進行實際操作
98、。應用價值:應用價值:虛擬現實技術的高沉浸性、高可重復性、高定制化性以及遠程可控性等特點,有助于豐富教學和診療手段、降低治療風險、提高設備利用率,進而推動醫療準確性、安全性與高效性的持續進階。(1)使用超高精度光學跟蹤(OptiTrack)系統進行跟蹤,可以連續跟蹤腿或關節的任何位置,以提供實時的姿勢的毫米精度;結合數字57孿生及增強現實(AR)技術將骨骼結構三維立體方式呈現在醫生面前,從而達到更精準操作,降低治療風險等目的。(2)依托于高精度動作捕捉設備,可對術后康復達到準確的階段性數據表達,給醫生與患者以更直觀的數據比對圖譜。(3)采用超高精度定位系統,結合虛擬現實(VR)技術為醫療培訓領
99、域還原處理場景,與醫用設備虛實結合,多人參與交互,以達到更加沉浸重交互式培訓?,F階段虛擬現實+醫療尚無法完全取代真實診療過程,但已作為傳統醫療手段的有效補充,具備規模推廣的條件。應用案例:(1)VR 醫學培訓應用案例:(1)VR 醫學培訓應用動作捕捉和虛擬現實技術,全 3D 動畫模擬,操作人員第一人稱視角,可選擇任意空間位置觀看操作。真實器械操作多病例病癥數據庫后臺。圖 67:腹腔穿刺:虛擬畫面 VS 實操畫面圖 68:心肺復蘇訓練與考核:現場實時畫面 vs 虛擬現實場景58(2)臨床治療(腿部外科手術)(2)臨床治療(腿部外科手術)傳統光學系統對外科醫生的操作多有限制,無形中增加手術時間及難
100、度;以微創手術為例,傳統光學系統無法對腿部進行跟蹤,因此無法獲得腿部姿勢信息。而 OptiTrack 的標準剛體(RB)在患者腿部特定位置安裝標記(光學跟蹤球),并使用光學跟蹤系統進行跟蹤。通過數字解決方案與光學跟蹤系統,連續跟蹤腿或關節的任何位置,以提供實時腿部姿態數據(毫米精度)。圖 69:使用關節鏡的光學跟蹤進行膝關節鏡檢查圖 70:組裝好的腿部剛體,腿部裝有標記,機器人可安裝腳踏板圖 71:用于關節鏡跟蹤的剛體(3)康復治療方面(下肢運動分析)(3)康復治療方面(下肢運動分析)為了估計腿上或腿內任意點的姿態,有必要在安裝在腿上的剛體的關鍵位置上設置坐標系。在知道光學標記相對于 Opti
101、Track 全局框架(W)和 CT 圖像的位置后,就可以計算 RBs 和腿部點之間的局部變換。它支持獲取腿上任何位置相對于全局框架(W)的姿態。圖 72:康復訓練實操 vs 隨時間變化曲線圖593.2.5 虛擬現實+智慧教育3.2.5 虛擬現實+智慧教育行業痛點:行業痛點:傳統教育培訓模式,針對教學過程中部分課程內容難記憶、難實踐、難理解等問題,虛擬現實有助于提升教學質量與培訓效果。應用價值:應用價值:智慧教育的突出特征在于:參與性、實操性、沉浸性、交互性、構想性等。通過建設虛擬現實課堂、實驗室與虛擬仿真實訓基地,運用動作捕捉、VR、AR、MR 等技術,模擬出三維虛擬環境,增強教學本身的代入感
102、,從而強化學生與各類虛擬物品、復雜現象與抽象概念的互動實操,推動教學模式向自主體驗升級,打造支持自主探究、協作學習的沉浸式新課堂。應用案例:(1)數字媒體藝術(技術)教學實驗棚應用案例:(1)數字媒體藝術(技術)教學實驗棚應用動作捕捉技術,實現動作數據采集,可視化呈現,在影視制作、動畫制作、游戲制作全流程中的教學。圖 73:動捕棚教學實際場地圖 74:中國傳媒大學 影視制作課程(2)桌面級教學系統(2)桌面級教學系統將傳統的人機交互模式升級成全息的、真實尺寸的模型,可實現60多人協同交互和主動式三維顯示,用戶可以多角度觀看模型,直接在自由的空間內與模型進行分析、修改、操控等交互。圖 75:桌面
103、級教學系統圖(3)CAVE 沉浸式教學系統(3)CAVE 沉浸式教學系統基于多通道視景同步技術和 3D 立體顯示技術(LED 大屏)的沉浸式可視協同環境。借助虛擬現實交互設備(如數據手套、力反饋裝置、定位系統等),獲得身臨其境的高分辨率三維立體視聽影像和 6 自由度交互感受。圖 76:CAVE 沉浸式教學系統圖(4)多人交互沉浸虛擬現實教學系統(4)多人交互沉浸虛擬現實教學系統利用頭盔式顯示器或其他設備,提供一個新的、虛擬的感覺空間,并利用位置跟蹤器、數據手套、其他手控輸入設備、聲音等使參與者產生一種身臨其境、全心投入和沉浸其中的感覺。61圖 77:多人交互沉浸虛擬現實教學系統(5)K12 實
104、驗類科普類教育(5)K12 實驗類科普類教育將 K12 化學類、物理類實驗實操課程用虛擬現實技術呈現,降低實驗損耗及安全隱患。圖 78:K12 教學現場場景3.2.6 虛擬現實+體育訓練3.2.6 虛擬現實+體育訓練行業痛點:行業痛點:現代體育的不斷量化,對成績和極限的日益追求,基于人眼觀察的方式已無法滿足體育運動成績的提高。從運動技術這一視角來看,運動成績要獲得提高或者突破就必須在運動技術研究方法學上完成兩個轉變:從傳統的基于人眼觀察到基62于高精度運動捕捉與分析的人體運動測量方法的轉變;從基于包含感情色彩的經驗方法到基于程序化的人體運動仿真的人體運動分析方法的轉變。應用價值:應用價值:運動
105、仿真技術是動作捕捉技術、計算機視覺、三維可視化分析、力學轉化測量臺等多種技術集合成的一種新型體育技能及成績提升的綜合技術。通過動作捕捉對于運動員運動動作進行數據采集,經過計算機數據分析,三維可視化進行運動數據比對,力學平臺對運動員運動過程中發力及受力轉換進行采集分析,從而以數據化、可視化的方式給出更直接更準確的評估,以輔助人體技能及運動成績的提升。應用案例:(1)高爾夫教學應用案例:(1)高爾夫教學傳統的高爾夫球教學主要利用鏡面等手段根據教練的糾正指導來達到提高揮桿動作標準性的目的。這種方法只能依靠球員自身的感覺與教練的觀察來分析技術動作,球員無法看清自身揮桿動作的完整過程,也不能準確比較其揮
106、桿動作與標準動作的差異,因此很難糾正動作缺陷,不易提高球員揮桿水平。采用運動捕捉等技術使高爾夫教學直觀化、智能化,從而使運動診斷技術達到定量水平。GEARS GOLF 是一款用于高爾夫球運動的人體跟蹤系統,核心技術由 Opititrack 光學定位及動作捕捉系統構成,用于球員訓練、球桿設計和俱樂部測試分析,它能將每一次揮桿擺動的每一個細節數據,63在全 3D 環境中建立,通過回放和數據比對,提升訓練效果。圖 79:GEARS GOLF 實操畫面 VS 數據比對畫面(2)乒乓球訓練(2)乒乓球訓練“乒乓球裁判員臨場執法培訓系統”是虛擬動點開發的乒乓球教學系統,是集教學、練習、考核于一體的培訓系統
107、。通過真人穿戴動捕服完成各種乒乓球動作,借助計算機實時動作數據錄入和骨骼綁定,在系統中生成運動員動作畫面和乒乓球運動畫面,一方面用于日常教學,另一方面幫助裁判判斷球體運行軌跡;同時,還可用于模擬裁判員工作流程,讓運動員和裁判員熟悉比賽模式,增強比賽臨場感,無懼實戰。圖 80:乒乓球訓練應用演示(3)籃球訓練(3)籃球訓練籃球作為競技體育中三大球之一,其特點體能消耗巨大,對抗性強,受傷概率較高,對于運動員日常系統化訓練強度要求高,所以數64據化采集分析運動員身體運動數據,有利于幫助運動員在達成最大訓練目的的同時盡可能降低受傷概率,在受傷后也可以直觀準確的反映出運動員康復情況。圖 81:籃球運動數
108、據采集分析(3)賽艇訓練(3)賽艇訓練賽艇運動處于戶外水上,環境容易對科學采集設備構建造成干擾,所以此類運動多采用慣性動作捕捉設備進行動作采集分析。此設備集成了加速計、磁力計、陀螺儀與一身,特點慣性捕捉雖然精度沒有光學動作捕捉高,但因具有靈活、抗干擾性強、使用方便、高性價比等特點。所以更適用于訓練較為苛刻的環境。圖 82:賽艇數據采集分析3.2.7 虛擬現實+展館展示3.2.7 虛擬現實+展館展示行業痛點:行業痛點:傳統的展館展示展示普遍存在空間有限,展品單一;展覽內容割65裂,無效聯動;展覽形式靜態,體驗感不強等痛點。近年來,利亞德虛擬動點不斷探索將光場顯示、全息成像、VR/AR/XR 虛擬
109、現實、裸眼 3D、沉浸式環境交互等創新技術與解決方案,廣泛應用于博物館、展覽館、科技館等文化展示場景中,讓“沉默”的展品“動”起來,讓“睡著”的文化“醒”過來。應用方案:(1)沉浸展示應用方案:(1)沉浸展示應用虛擬動點動作捕捉系統,結合 AR 實景導覽與 VR 行前預覽,可以極大地豐富展館展廳的展覽方式,營造沉浸式的互動體驗。如通過將博物館文物與特點場景融合呈現,實現自動識物的自助講解、文物復原、場景再現等功能,幫助訪客對展品“知其然,亦知其所以然”。(2)光場顯示技術在展示中的應用(2)光場顯示技術在展示中的應用光場顯示通過構建光線簇來表征三維物體表面的每個發光物點,使人眼在不同位置可以接
110、收發光物點不同角度的光線信息,可以為觀看者提供雙目視差、運動視差關系、深度信息和正確的空間遮擋關系,從而擬合出原始場景的光場分布,實現逼真、自然的三維顯示效果。利亞德領先的集成成像光場顯示,運用微透鏡或光柵陣列,實現動態的集成成像 3D 顯示。利亞德領先的集成成像光場顯示,運用微透鏡或光柵陣列,實現動態的集成成像 3D 顯示。該技術在博物館中使用可以讓觀眾更加直觀地了解展品的外觀和結構,提供近似實物展示的效果,為展品的呈現增添更多藝術感和科技感;還可以通過調整視角和焦距來,為展覽展示提供更加靈活的展示方式。(3)虛擬數字人在展示中的應用(3)虛擬數字人在展示中的應用66與傳統的導覽方式相比,虛
111、擬數字人導覽有著諸多優勢。A、支持多語言講解,提升導覽體驗A、支持多語言講解,提升導覽體驗虛擬數字人通過高清晰度的人物形象、生動的多種語言/語音解說和互動式展示,為觀眾提供了更加豐富、生動的導覽體驗。通過AI 技術手段使觀眾可以與數字人物進行互動,大大提升場館的自動化和智能化程度,方便觀眾更加深入了解展示內容的文化藝術科技等方面的知識。B、提高導覽效率,降低管理成本B、提高導覽效率,降低管理成本傳統的場館導覽方式需要觀眾閱讀導覽手冊或者看導覽牌,時間和效率都比較低下;而虛擬數字人可根據觀眾的需求和興趣,自動匹配相關展品和導覽內容,提高導覽效率和質量,同時降低人力與管理成本。C、便于日常更新和維
112、護C、便于日常更新和維護傳統的場館導覽方式需要經常更換和更新導覽手冊、導覽牌等物品,而虛擬數字人則可以通過數字化的方式進行更新和維護,降低了更新成本和維護難度。除以上優勢外,虛擬數字人生命周期非常長,且可以有不同的數字分身,實現 7x24 小時連續工作。隨著人工智能技術的發展,虛擬數字人的思維和計算能力會逐漸增強,未來將成為展館展示中導覽的主流。應用案例:(1)動作捕捉、AR 技術加持下的展陳導覽應用案例:(1)動作捕捉、AR 技術加持下的展陳導覽67在基于虛擬現實技術的展覽導引基礎之上,動作捕捉技術動作捕捉技術的加入將能夠為觀展過程中引入到“互動”的全新體驗維度。在紐約新當代藝術博物館(Ne
113、w York Citys New Museum for Contemporary Art)的虛擬現實展覽上,藝術家丹尼爾斯蒂格曼曼格朗與 ScanLAB 項目合作,使用虛擬動點的 OptiTrack 動作捕捉技術,虛擬動點的 OptiTrack 動作捕捉技術,讓觀眾身臨其境地沉浸在“正在迅速消失的巴西熱帶雨林“虛擬場景之中。圖 83:蘇州博物館圖 84:紐約新當代藝術博物館當 OptiTrack 在整個展覽空間中追蹤他們的活動時,參觀者可以探索這個虛擬的熱帶雨林里令人吃驚的豐富細節,游客可以在樹枝間移動,蹲下身子,感受雨林的地面,真正感受到自己置身于這個奇妙的世界,并與之互動,營造出充滿個性化
114、、即時性、泛在化的觀展體驗感。(2)VR 沉浸式體驗(2)VR 沉浸式體驗由虛擬動點聯合虛境科技為湖南省博物館打造的 VR 體驗項目國寶迷蹤,也代表了國內歷史博物館展陳方式的重要里程碑。國寶迷蹤故事設定為未來的湖南省博物館,未來人類通過真實觸摸文物的方式穿越回到文物所處的時代并參觀游歷。該項目采用 66 臺68OptiTrack 動捕攝像機,加入 14 組定制化文物道具,通過 VR 交互體驗,打造現實版“博物館奇妙夜”。圖 85:湖南省博物館國寶迷蹤VR 行走體驗項目3.2.8 虛擬現實+文化旅游3.2.8 虛擬現實+文化旅游行業痛點:行業痛點:作為一個新興行業,元宇宙文旅目前還沒有明確的技術
115、標準,技術開發和應用存在一定困難;同時,數據安全和個人隱私風險存在,如果不加以有效的保護,可能會引發一系列安全問題。此外,元宇宙文旅還未進入大規模普及階段,用戶流量相對較少,盈利模式不夠清晰,需要包括技術、游戲運營商、文化機構等多方資源整合,這些都給文旅企業的盈利和發展帶來一定挑戰。應用價值:應用價值:元宇宙文旅方案的價值在于為文旅行業帶來新的發展機遇,提高行業的效益、可持續性和競爭力,同時也為游客提供更加豐富、多樣、個性化的旅游體驗。此外,此外,元宇宙文旅方案可以實現文旅與科技的充分融合,提高文旅行業的效益和競爭力;同時,同時,可以降低文旅行業的資源消耗和環境壓力,實現行業的健康可持續發展。
116、69目前,應用推廣要重點關注長期可持續的運營模式等問題。(1)內容制作,內容制作,包括虛擬景區、旅游目的地、文化遺址等元素的創作和設計,以及配合游戲機制開展的文旅故事制作等。(2)技術支持,(2)技術支持,包括虛擬現實、大數據、云計算、智能顯示等軟硬件技術支持,以確保元宇宙的流暢運行和高質量用戶體驗。(3)經營管理,(3)經營管理,包括團隊管理、財務管理、市場營銷等,以確保企業運營可持續性和發展。(4)收入來源,(4)收入來源,分為直接收入和間接收入。直接收入包括門票、虛擬商品銷售、會員制度等;間接收入包括廣告投放合作、文化旅游衍生品銷售等。(5)安全保障,(5)安全保障,一方面需要保障游客的
117、網絡安全和個人信息安全,另一方面需要保護虛擬環境,以確保游客可以在安全的環境中享受體驗服務。應用案例:應用案例:(1)弋陽龜峰夜游:數字化演繹+燈光互動體驗的文旅夜游圖 86:弋陽龜峰景區虛擬現實空間(2)河南漯河元宇宙:元宇宙 AR 交互體驗空間,“文化挖掘+沉浸式體驗=文商旅無界融合”70圖 87:河南漯河元宇宙空間3.2.9 元宇宙體驗館3.2.9 元宇宙體驗館元宇宙展館是一個集合了多種元宇宙應用和功能的展示平臺,在展館內,用戶可以體驗到各種元宇宙應用,包括虛擬現實游戲、智能家居、數字資產交易等等。此外,展館還提供了區塊鏈技術、人工智能等技術的展示區域,以及社交功能,使得用戶可以與其他用
118、戶互動,探索元宇宙的更多可能性。行業痛點:(1)技術支持:行業痛點:(1)技術支持:體驗館需要高度先進的技術支持,包括 VR 和AR 技術等,這需要一定的技術人才和資源。(2)設備更新升級:(2)設備更新升級:技術進步迅猛,體驗館需要不斷更新升級設備,以保證體驗質量和用戶體驗。(3)用戶體驗(3)用戶體驗:用戶體驗是體驗館的核心,需要設計合理的場景并提供足夠的信息和互動,以吸引用戶并留住用戶。(4)安全風險:(4)安全風險:元宇宙環境的自由度和開放性可能會帶來安全風險,需要加強保障措施,避免不可預測的事件或損害。(5)運營成本:(5)運營成本:購買設備、維護設備、供應電力和場館空間等成本巨大。
119、71應用價值:(1)引領市場趨勢:應用價值:(1)引領市場趨勢:元宇宙是未來數字化世界的核心,元宇宙體驗館虛擬世界,可以提供更加沉浸式的游戲、娛樂、教育等體驗。體驗館可以引領未來市場趨勢,為觀眾提供新的體驗形式。(2)豐富生活方式:(2)豐富生活方式:體驗館可以提供特色主題的虛擬場景和活動,讓人們在不同的環境中體驗不同的文化和生活方式。(3)推動科技創新和應用創新:(3)推動科技創新和應用創新:體驗館可以通過創新技術和互聯網平臺,推動技術發展,應用場景和商業模式創新。同時,還可以創造新的消費場景,為用戶提供新的購物、娛樂、社交體驗。應用案例:(1)四川簡陽驛站 VR 體驗館:應用案例:(1)四
120、川簡陽驛站 VR 體驗館:運用虛擬現實和數字科普互動等技術,通過聲光電的方式,虛擬設備體驗的方式展示科普內容,沉浸感強,趣味性強。圖 88:VR 體驗館(2)京東超級體驗店:(2)京東超級體驗店:裸眼 3D 創意顯示屏、機械裝置等設備,增加了線下店的科技體驗感,讓用戶更愿意到商業空間中去消費,成為網紅打卡地。72圖 89:京東沉浸式體驗店(3)保定之光元宇宙體驗館:(3)保定之光元宇宙體驗館:在數字孿生體驗空間中,包含 VR模擬器、大空間多人游戲等項目。圖 90:保定之光元宇宙體驗館3.3 惠民:智能電視+AI 數字人走進家庭3.3 惠民:智能電視+AI 數字人走進家庭行業痛點:行業痛點:智能
121、電視行業目前正處于快速發展的階段。但也存在一些問題:產品同質化嚴重,用戶體驗不佳(操作界面和應用商店),版權保護問題等都是智能電視行業面臨的挑戰之一。圖 91:智能電視主要功能73區別于傳統電視,智能電視目前的交互方式主要包括:控制器操控,語音操控,體感手勢操控,體驗效果各有利弊,有很大提升空間??刂破鞑倏兀嚎刂破鞑倏兀褐悄茈娨曉?UI 展示方面遠復雜于傳統電視,而控制器(遙控器,手機等)按鍵又少,老年人和兒童難以操控。語音操控:語音操控:受限于 AI 語音識別效率以及自然語言理解能力,目前的語音交互準確性和效率都有待提高。特別是針對老人和兒童,語音操控難以準確判斷用戶意圖,交互效果差。體感操
122、控:體感操控:通過識別手勢動作實現交互,往往只能實現基礎和簡單的操作指令,如選擇和確認功能。由于精確度不足,響應速度慢,體感操控也難以作為主流操控方式,往往只能作為無遙控器操控的一種替代方式。解決方案:“智能電視+AI 數字虛擬人”的應用解決方案,解決方案:“智能電視+AI 數字虛擬人”的應用解決方案,可以為用戶帶來更加智能化、便捷化、個性化的服務體驗。虛擬人可以通過語音交互、人臉識別、推薦算法等技術,提供更加貼近用戶需求的服務,如新聞播報(天氣播報)、電視購物推薦、電視教育教學、健康管理、游戲娛樂、社交聊天、影視解說、家居控制等。應用案例:國外:應用案例:國外:谷歌推出支持多國語言的智能電視
123、語音助手 VIDAA,重點解決語音識別準確率以及意圖識別準確率。74圖 92:虛擬數字人在新聞播報中的應用圖 93:D-ID 推出虛擬電視助手,與用戶實時聊天,增強用戶體驗國內:國內:目前四川長虹通過和科大訊飛星火合作,利用其多個 AI大模型的“超級大腦”結合智能電視應用落地,并已進入內測階段。4、共建虛擬現實產業生態4、共建虛擬現實產業生態作為 AI 時代虛擬現實產業的領軍者,虛擬動點在全球擁有 200余家合作伙伴,覆蓋影視、教育、醫療、工業、娛樂、文化等 10+個行業,40+個應用場景。4.1 遍布全球的合作伙伴及營銷網絡4.1 遍布全球的合作伙伴及營銷網絡虛擬動點位于中國北京,核心動捕技
124、術及系統的研發中心分部位于虛擬動點位于中國北京,核心動捕技術及系統的研發中心分部位于中國北京(虛擬動點、孚心科技、德火科技)、深圳(數虎圖像)和美國俄勒岡洲(NP 公司)。75虛擬動點虛擬動點在全球擁有核心代理商 30 家,可獨立完成售前-售中-售后的技術服務、安裝搭建、技術培訓等全流程銷售服務網絡;全球合作伙伴超過 200 余,涉及政務、工業、商圈、文旅、體娛、教育、醫療等多種行業的幾十種細分應用場景。圖 94:虛擬動點全球合作伙伴(部分)4.2 共建動作捕捉開發生態平臺(開發者社區)4.2 共建動作捕捉開發生態平臺(開發者社區)“從幾個動捕頭”到“一片云?!?。虛擬動點致力于通過將動作捕捉技
125、術動作捕捉技術與公有云平臺公有云平臺進行整合,建立 aPaaS 平臺,對動捕數據進行平臺化管理;數據應用產品化標準化,鼓勵并激勵相關從業者利用aPaaS 平臺進行動捕相關業務開發使用;同時,建立開發者社區,促進動作捕捉相關產業生態蓬勃發展。圖 95:虛擬動點將與云廠商建立 aPaaS 云平臺,重新定義動作捕捉商業模式76參考文獻參考文獻(1)利亞德光電股份有限公司 2022 年年度報告(2)工信部:虛擬現實與行業應用融合發展行動計劃(20222026 年)(3)虛擬(增強)現實白皮書(2021 年)中國信息通信研究院(4)VR 虛擬現實行業深度報告國信證券(5)從認知到落地元宇宙應用實踐 2022亞馬遜云科技(6)虛擬現實生態下數字化轉型應用虛擬現實內容制作中心、上海虛擬現實產業協會(7)AIGC 發展趨勢報告 2023:迎接人工智能的下一個時代騰訊研究院(8)2022 年中國 XR 產業鏈上下游市場分析報告(9)數字孿生白皮書(2019)中國電子信息產業發展研究院