星期一, 8月 7

加州大學聖芭拉分校 與 Nvidia 合作的 ComputationalZoom

“圖像堆疊”技術為許多現代相機的後處理功能奠定了基礎(比如松下Lumix GH5),但加州大學聖芭拉分校(UCSB)的一支研究團隊,卻藉助類似技術實現了在拍照後對圖像進行組合的功能。通過與Nvidia的合作,團隊開發出了一種無法借助普通相機拍攝出來的圖像效果。研究人員稱之為「運算變焦」,可以通過控制場景深度、不同物體在不同深度下的相對大小、以及相機的視角,來實現新穎的圖像組合。


這套計算縮放系統,能夠在單張“多視角”照片中自動結合“廣角+長焦”。

簡而言之,拍攝者被允許“毫無違和感”地操縱一張圖像前後景的元素。

廣角端(預期背景)
具體操作分為三個步驟:
● 拍攝者通過移動來靠近拍攝對象(期間連續拍攝),但不用調整鏡頭的焦距;
● 系統會接受堆疊,並利用一套算法來估計相機的位置、以及指向何處;
● 然後利用“一種新穎的多視角3D 重建方法”,以創建每幅圖像的一個深度映射。

預期前景
所有這些信息可被用於組合成一張多視角圖像,且擁有不同的組合。通過一個簡單的UI,攝影師可以輕鬆探索不同的視角。(聽起來有點像“光場相機”)

兩張圖像組合後的成品
最終結果是自動創建出一副結合了廣角和長焦端(放大)的圖像,想像一下你和朋友分別站在一座美麗的老房子前的景象—— 放大讓你對人物有更好的辨識,但身後的教堂背景大部分被忽略。

Computational Zoom A Framework for Post-Capture Image Composition
研究團隊在美國計算機協會(ACM)的SIGGRAPH 2017 大會上對這項技術進行了演示。

 

沒有留言: