NVIDIA改進Instant NeRF模型 讓大量2D平面照片可在幾秒內合成3D場景

聯合新聞網 楊又肇

NVIDIA近期改進過去由加州大學柏克萊分校、Google研究院與加州大學聖地牙哥分校研究人員在2020年提出的Instant NeRF運算模式,讓大量2D平面照片可以在短短幾秒內合成自然的3D場景。

雖然過去已經有不少技術能將2D平面照片合成3D場景,但通常需要透過龐大運算效能與大量渲染時間完成,而在NVIDIA此次改進之下,將可讓Instant NeRF模型在更快時間內完成渲染運算。

在早期的Instant NeRF模型設計中,必須比對諸多2D平面照片顏色、光亮情況,並且透過分析圖像細節進行縫合,另外也必須透露紀錄相機拍攝位置,以利合成正確的3D場景,但在後來的技術改進中,則是可透過神經網路學習方式判斷正確照片拍攝位置,進而更快合成正確影像。

透過NVIDIA提高Instant NeRF模型運算效率,標榜能像75年前拍立得在幾分鐘內即可在照片上留下影像,僅需幾秒時間就能將大量2D平面照片轉換成擬真3D場景。同時,在NVIDIA改進的Instant NeRF模型應用表現,更能詮釋擬真光線與景深表現,讓3D場景整體視覺表現不會顯得突兀。

而加快Instant NeRF模型生成3D場景的速度,NVIDIA預期將更有利於諸多需要運用3D場景建模的需求,例如遊戲、動畫等產業,甚至也能應用在建立訓練自駕車、機器人的3D擬真場景,或是應用在應用數位雙生 (digital twins)的模擬研究應用需求,甚至無須等待漫長時間,即可依照需求快速進行調整。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》

推薦文章

留言