1. 程式人生 > >【科普】VR視訊與全景視訊有什麼不同?

【科普】VR視訊與全景視訊有什麼不同?

很多人把360度全景視訊和VR視訊等同起來,這其實是一個概念上的誤解。

我們用一張圖來說明360度全景視訊和VR視訊的不同(下圖)。

全景視訊很好理解,就是有別於傳統視訊單一的觀看視角,讓人們可以360度自由觀看。而VR視訊在此基礎上,還允許人們在視訊裡自由移動觀看(提供場景中任意位置的360度自由視角)。

全景視訊可以是3D的也可以不是,可以通過螢幕觀看,也可以帶上眼鏡觀看。而VR視訊必須帶上頭顯觀看,且必須是3D的。

全景視訊是線性播放的,也就是按照時間軸來進行回放的。而VR視訊可以允許使用者在同一時間,站在不同的位置觀看(有點類似科幻電影裡時間暫停了,然後觀察者在定格的時間和空間裡任意移動,觀看周圍的人物和景物)。

全景視訊和VR視訊有什麼相似之處?

1.都可以是3D的(全景視訊也有2D版);

2.都能360度上下、左右旋轉觀看;

3.具有視覺沉浸感。

那有什麼不同呢?

最大區別就是VR視訊允許觀看者在場景裡自由走動觀察,但全景視訊不行,拍攝機位在哪兒,觀看者就必須在哪兒,頂多只能原地360度觀看。

如果是一部VR電影,那麼傳統的“鏡頭運動、場景切換、Zoom In or Zoom Out”可能都將被取代,由觀眾來決定鏡頭位置你可以把VR視訊看成是“3D全景視訊+自由移動”。

所以,現在大家所看到的基本都是“偽VR視訊”,各大視訊網站上標稱的VR視訊也基本都是360度全景視訊。而打著“VR相機”口號行銷的其實大部分都是360度全景相機。那麼,我們不禁要問,真正的VR視訊是什麼樣呢?

真正的VR視訊目前只能通過CG實現

如何才能拍攝出真正的VR視訊呢?

很遺憾,以現在的技術手段和裝置能力還很難實現。所以到目前為止,我們還沒有看到過一部真正意義上的VR視訊是被實際拍攝出來的。因為一臺攝像機只能捕捉一個位置的光線,而要實現場景裡的自由移動,需要捕捉場景裡任意位置的光線,顯然我們無法在場景裡安置那麼多攝像機,這是矛盾的。

那未來有沒有可能呢?答案是肯定的。要拍攝真正意義上的VR視訊,我們需要光場攝像機。

什麼是光場攝像機?

這絕對是一個黑科技,很難用幾句話表述清楚。大概意思就是通過矩陣式攝像頭(非常非常多的微型攝像頭),捕捉和記錄周圍不同角度射入的光線訊號,再利用計算機後期合成出任意位置的影象。

Lytro公司去年釋出的360度光場攝像機Immerge,其內部的數百個鏡頭和影象感測器分為五個“層”(你可以想象每層都是20部GoPro相機組合在一起),除此之外還配套專用的伺服器(下圖)和編輯工具等。

與傳統攝像機不同的是,光場攝像機除了記錄色彩和光線強度資訊外,還會記錄光線的射入方向——這就是“光場”技術的由來。

有了從四面八方射入的光的方向資訊,再利用演算法,就能對環境進行分析,逆向建模,從而還原出一個三維的環境模型。這和計算機建模(CG)的結果是相似的,只不過CG是人為主觀“虛構”模型,而光場攝像機是逆向方式“客觀”還原模型。

有了三維模型,計算機便可以實時計算出任意位置的視覺影象,3D+360度全景也沒有問題。這就是說,光場攝像機所在的位置拍攝到的景象是真實的,而自由移動位置後看到的景象是通過電腦後期合成的。

不過話說回來,光場攝像機現在仍只是概念產品,Lytro公司也坦言目前他們只能做到視角在一定範圍的左右和前後移動,要想“看到”物體背面的樣子還不行(也許要對反射光進行計算和建模)。所以要實現真正意義上的VR視訊,還是電腦建模然後實時渲染輸出最簡單。

如今所有的VR遊戲,都可以看作是VR視訊。不僅可以3D顯示+360度全景,還可以自由移動,甚至控制時間軸也沒有問題。只是,VR視訊都用計算機建模了,還有拍攝什麼事情呢?我們要繼續討論VR視訊的拍攝過程嗎?