“元宇宙”是美國科幻小說家尼奧·斯蒂文森1992年在《雪崩》中提出的概念,書中設定現實世界中的人在網絡世界中都有一個分身,這個由分身組成的世界就是“元宇宙”。如今,隨著虛擬現實技術的發展,元宇宙逐漸從科幻走入現實。

添好友, 獲取更多信息
復制微信號
本文將介紹虛擬現實的核心概念、行業應用以及相關的開發技術。
01 什么是虛擬現實
我們通常所說的“虛擬現實”一詞其實包含了多個技術分支,如AR/VR/MR等。
AR是Augmented Reality的縮寫,通常被稱為增強現實。AR的定義很廣泛,技術種類眾多。目前主流的AR是指通過設備識別和判斷(二維、三維、GPS、體感、面部等識別物)將虛擬信息疊加在以識別物為基準的某個位置,并顯示在設備屏幕上,從而實時交互虛擬信息。
VR是Virtual Reality的縮寫,通常被稱為沉浸式虛擬現實。VR為用戶提供了完全沉浸式的體驗,使用戶有一種置身于真實世界的感覺,是一種高級的、理想化的虛擬現實系統。
除了我們通常了解的AR和VR這兩個名詞之外,行業內其實還有MR和XR的說法。MR是Mixed Reality的縮寫,即混合現實,指的是合并現實和虛擬世界而產生的新的可視化環境。在新的可視化環境里,物理和數字對象共存,并實時互動。
XR是Extended Reality的縮寫,即擴展現實。實際上,XR是AR/VR/MR等各種形式的虛擬現實技術的總稱。它分為多個層次,包括從通過有限傳感器輸入的虛擬世界到完全沉浸式的虛擬世界。

2014年,Facebook對Oculus的收購盤活了整個行業。2019年,Facebook推出的Oculus Quest讓無數人眼前一亮,可謂“當前VR一體機產品中的翹楚”。2020年9月,Facebook發布Oculus Quest2,并宣布在2021年全面停產Oculus Rift PCVR系列產品。
2015年,微軟發布之一代HoloLens全息眼鏡,在單一機身中融合了CPU、GPU和全息處理器,并在2019年推出更為強大的HoloLens 2。
在2017年的WWDC上,蘋果推出了專門為打造增強現實體驗而開發的框架ARKit,以及面向AI的CoreML。同年,Google推出了和蘋果ARKit功能相似的ARCore。
2019年9月,華為在旗艦手機Mate 30 Pro的發布會上重磅推出了自家的VR眼鏡產品,為業界所看好。
可以預見,未來的虛擬現實產品將不再區分AR/VR/MR,而是一種融合性的產品。與此同時,虛擬現實的實時掃描、環境感知和渲染技術將需要借助人工智能技術,特別是計算機視覺和深度學習的幫助。
虛擬現實技術自誕生以來應用于多個領域—從軍事到航空航天,從教育到娛樂游戲,從醫療到旅游,等等。從目前來看,融合了5G/AI等技術的AR/VR設備有望取代智能手機的計算模塊。
02 虛擬現實的技術基礎
虛擬現實是一種綜合性技術,由三大類技術組成,分別是立體顯示技術、3D建模技術和自然交互技術,如圖1-1所示。
本節將向大家簡單介紹以上3種技術的相關知識。
1. 立體顯示技術
立體顯示技術以人眼的立體視覺原理為依據。因此,研究人眼的立體視覺機制、掌握立體視覺的規律,對設計立體顯示系統是十分必要的。如果想在虛擬世界看到立體的效果,就需要知道人眼立體視覺產生的原理,然后再用一定的技術通過顯示設備還原立體效果。
1)HMD技術
HMD(頭戴顯示)技術的基本原理是讓影像透過棱鏡反射之后,進入人的雙眼在視網膜上成像,營造出在超短距離內看超大屏幕的效果,而且具備足夠高的解析度。

頭戴顯示器通常擁有兩個顯示器,而兩個顯示器由計算機分別驅動向兩只眼睛提供不同的圖像,再通過人的大腦將兩個圖像融合以獲得深度感知,從而產生立體的圖像。
主流的沉浸式虛擬現實頭戴設備,包括Oculus Rift、Oculus Quest、HTC Vive、Sony Playstation VR、3Glasses、Pico VR等,大多基于雙顯示屏技術。
那么,微軟的黑科技產品HoloLens又是基于什么原理呢?
先來看看HoloLens,它相當于Google Glass的升級版,可以看作是Google Glass和Kinect的合體產品。它內置了獨立的計算單元,通過處理從攝像頭所捕捉的各種信息,借助自創的HPU(全息處理芯片),透過層疊的彩色鏡片創建虛擬物體影像,再借助類似Kinect的體感技術,讓用戶從一定角度和虛擬物體進行交互。
依靠HPU和層疊的彩色鏡片,HoloLens可以讓用戶感覺到這些全息圖像直接投射到了現實場景中的物體上。當用戶移動時,HoloLens借助廣泛應用于機器人和無人駕駛汽車領域的SLAM(同步定位與建圖)技術來獲取環境信息,并計算出玩家的位置,保證虛擬畫面的穩定。
2)全息投影技術
全息投影技術可以分為投射全息投影和反射全息投影兩種,是全息攝影技術的逆向展示。和傳統立體顯示技術利用雙眼視差的原理不同,全息投影技術可以通過將光線投射在空氣或者特殊的介質(如玻璃、全息膜)上呈現3D影像。人們可以從任何角度觀看影像,得到與現實世界中完全相同的視覺效果。
目前,我們看到的各類表演中所使用的全息投影技術都需要用到全息膜或玻璃等特殊的介質,需要提前在舞臺上做各種精密的光學布置。這類表演的效果絢麗無比,但成本高昂、操作復雜,需要操作人員進行專業訓練。
3)光場成像技術
神秘的Magic Leap采用了所謂的“光場成像”技術。從某種意義上來說,該技術可以算作“準全息投影”技術。其原理是用螺旋狀振動的光纖形成圖像,并直接讓光線從光纖彈射到人的視網膜上。
簡單來說,就是用光纖向視網膜直接投射整個數字光場(Digital Lightfield),產生所謂的“電影級現實”(Cinematic Reality)。
2. 3D建模技術
為了打造完美的虛擬現實體驗,我們需要從零開始構建虛擬世界,或將現實生活中的場景轉化成虛擬世界的一部分。那么,這種虛擬世界如何構建呢?
目前來說,3D建模主要通過3D軟件、3D掃描和光場捕捉等方式來實現。
1)3D軟件建模
簡單來說,3D軟件建模就是通過各種三維設計軟件在虛擬的三維空間構建出具有三維數據的模型。這個模型又被稱作3D模型,可以通過3D渲染技術以二維的平面圖像呈現出來,或是通過計算機模擬,或是通過3D打印設備構建。
除了游戲之外,3D軟件建模還廣泛應用在影視、動畫、建筑和工業產品的設計中。目前在游戲、影視和動畫領域,最常用的3D設計軟件包括3Ds Max、Maya、zBrush、Cinema4D、Blender、Softimage等,而在建筑和工業產品設計中,最常用的是AutoCAD、Rhino等。
單純使用3D軟件建模的問題在于,一方面高度依賴建模師個人的技能熟練度,另一方面對于現實世界的很多場景、物體和人物無法做到精準還原,很容易進入“恐怖谷”的瓶頸之中。
2)3D掃描建模
在構建虛擬現實世界時,除了使用常規的3D建模技術和實景拍攝技術之外,我們還可以使用3D掃描技術將真實環境、人物和物體進行快速建模,將實物的立體信息轉化成計算機可以直接處理的數字模型。
3D掃描儀是利用3D掃描技術將真實世界的物體或環境快速建立數字模型的工具。3D掃描儀有多種類型,通常可以分為兩大類:接觸式3D掃描儀和非接觸式3D掃描儀。
3)光場捕捉建模
光場捕捉建模技術最早應用于Ren Ng創辦的Lytro,它通過在單個傳感器前放置微透鏡陣列實現多個視角下畫面的采集,但這種方案會導致分辨率大大降低。
近幾年,還有一種方案被Facebook Reality Labs、微軟MR工作室、上海疊境、深圳普羅米修斯和微美全息等公司采用,即使用上百個相機的多相機陣列和深度相機組成內環抓拍系統,并對對象進行全方位拍攝,通過高速處理的AI算法和動態融合的系統實時合成對象的立體模型。
需要注意的是,使用3D掃描和光場捕捉建模技術所獲取的3D模型與動作動畫仍然需要使用主流的3D設計軟件進行后期處理。使用3D掃描或光場捕捉技術可以大大提高3D建模效率,減少前期工作量,并實現更為真實的效果。
3. 自然交互技術
隨著VR/AR時代的來臨,傳統的交互方式已經遠遠不能滿足人們的需求。因此,模仿人類本能的自然交互技術成為虛擬現實技術的重要基礎。虛擬現實要實現完美的沉浸感,需要用到哪些自然交互技術呢?
1)動捕
為了實現和虛擬現實世界中場景和人物的自然交互,我們需要捕捉人體的基本動作,包括手勢、表情和身體運動等。
實現手勢識別、表情、動捕的主流技術分為兩大類,一類是光學動捕,一類是非光學動捕。光學動捕技術包括主動光學動捕和被動光學動捕,而非光學動捕技術包括慣性動捕、機械動捕、電磁動捕和超聲波動捕。
2)眼動追蹤
眼動追蹤的原理其實很簡單,就是使用攝像頭捕捉人眼或臉部的圖像,然后用算法實現人臉和人眼的檢測、定位與跟蹤,從而估算用戶的視線變化。目前,我們主要使用光譜成像和紅外光譜成像兩種圖像處理方法,前一種需要捕捉虹膜和鞏膜之間的輪廓,后一種則需要跟蹤瞳孔的輪廓。
3)語音交互
在和現實世界交互的時候,除了眼神、表情和動作交互外,還有語音交互。一個完整的語音交互系統包括對語音的識別和對語義的理解兩大部分,不過人們通常用“語音識別”一詞來概括。語音識別包含了特征提取、模式匹配和模型訓練三方面的技術,涉及的領域包括信號處理、模式識別、聲學、聽覺心理學、人工智能等。
4)觸覺交互
觸覺交互技術又被稱作所謂的“力反饋”技術,在游戲行業和虛擬訓練中一直有相關的應用。具體來說,它會通過向用戶施加某種力、震動等,讓用戶產生更加真實的沉浸感。觸覺交互技術可實現在虛擬世界中創造和控制虛擬的物體,比如遠程操控機械或機器人,甚至模擬訓練外科實習生進行手術。
5)嗅覺及其他感覺交互技術
在虛擬現實的研究中,對視覺和聽覺交互的研究一直占據主流地位,對其他感覺交互技術的研究則相對被忽視。目前,已經有一些研究機構和創業團隊在著手解決這些問題。
6)腦機接口
腦機接口(Brain Computer Interface,BCI)就是大腦和計算機直接進行交互,有時候又被稱為意識–機器交互、神經直連。腦機接口是人或者動物的大腦和外部設備建立直接連接的通道,分為單向腦機接口與雙向腦機接口。
單向腦機接口只允許單向的信息通信,比如只允許計算機接收大腦傳來的命令,或者只允許計算機向大腦發送信號(比如重建影像)。
雙向腦機接口則允許大腦和外部計算機設備實現雙向的信息交換,比如Neurosky(神念科技)的Brainlink。它可以采集大腦產生的生物電信號,并通過esense算法獲取使用者的精神狀態參數(專注度、放松度)等,實現基于腦電波的人機交互,或是俗稱的“意念控制”。
Neuralink公司屬于侵入式技術的代表,其產品通過在大腦中植入微型電極和芯片,收集人腦1500個點產生的神經元信號。Neuralink公司使用了一種被稱為“神經織網”的技術,該技術通過一種特制的“縫紉機”將只有頭發絲1/10粗細的線植入大腦,這種線可以像人的神經一樣高速傳輸各種數據。
雖然植入式技術的難度更大,但在信息的捕捉和傳遞方面更加精準、可靠,發展空間不可限量。按照馬斯克的想法,腦機接口設備的短期目標是治療一些常見的腦部疾病,終極目標則是讓人類和人工智能技術融合,實現人機交互。
