英偉達用AI生成交互式3D虛擬場景,自動構(gòu)建虛擬世界
英偉達 今天推出了一項突破性的人工智能研究,開發(fā)者首次可以通過一個根據(jù)真實世界視頻訓(xùn)練的模型來渲染完全合成的交互式3D環(huán)境。
研究人員利用神經(jīng)網(wǎng)絡(luò)來實時渲染一個合成的3D環(huán)境。就目前而言,虛擬世界中的每一個對象都需要單獨建模,而這個過程成本高昂且十分耗時。與之相比,英偉達采用了一個能夠根據(jù)真實視頻自動進行學(xué)習(xí)的模型來渲染諸如建筑物,數(shù)目和車輛等對象。
這項技術(shù)為游戲,汽車,架構(gòu),機器人或虛擬現(xiàn)實快速創(chuàng)建一個虛擬世界提供了潛力。例如,你可以根據(jù)真實世界位置生成交互式場景,或者在消費者面向渲染流行歌手的實況 演唱會 。
負責(zé)這一項目的英偉達Applied Deep Learning Research副總裁Bryan Catanzaro表示:“在25年來,英偉達一直在發(fā)明生成交互式圖形的新方法,而這是我們第一次通過神經(jīng)網(wǎng)絡(luò)實現(xiàn)這一目標。神經(jīng)網(wǎng)絡(luò),特別是生成模型,將改變圖形的創(chuàng)建方式。這可以幫助開發(fā)者以更低的成本來創(chuàng)建新場景。”
研究結(jié)果是一款簡單的駕駛游戲,其中用戶可以在城市場景中導(dǎo)航。所有內(nèi)容都以交互方式呈現(xiàn),并使用了能夠?qū)⒂蓚鹘y(tǒng)圖形引擎生成的3D世界草圖轉(zhuǎn)換為視頻的神經(jīng)網(wǎng)絡(luò)。據(jù)悉,英偉達將在蒙特利爾舉行的NeurIPS 2018大會上演示實況demo。
這個神經(jīng)網(wǎng)絡(luò)能夠模擬世界的外觀,包括照明,材質(zhì)及其動態(tài)。由于場景是完全合成生成,因此看來這可以輕松進行編輯,自由刪除,修改或添加對象。
研究人員指出:“建模和重建視覺世界動態(tài)的能力對于建立智能代理至關(guān)重要。除了純粹的科學(xué)興趣,學(xué)習(xí)如何合成連續(xù)視覺體驗在計算機視覺,機器人和計算機圖形學(xué)中存在廣泛的應(yīng)用?!?
文章來源:映維網(wǎng) 如轉(zhuǎn)載請標明出處
原文鏈接 : https://yivian.com/news/53630.html
未經(jīng)授權(quán),禁止轉(zhuǎn)載,違者必將追究法律責(zé)任。