IT之家 11 月 2 日消息,蘋(píng)果公司近日聯(lián)合加州大學(xué)圣塔芭芭拉分校的研究人員,演示和介紹了一種突破性算法,可以從動(dòng)態(tài) RGB 圖像中在線重建 3D 圖像。
雙方團(tuán)隊(duì)挑戰(zhàn)低紋理區(qū)域,并嘗試解決重建圖像中固有的模糊性,將目光投向了實(shí)時(shí)執(zhí)行的實(shí)用解決方案,未來(lái)將會(huì)引入到智能手機(jī)等移動(dòng)設(shè)備上。
新算法根據(jù)歷史當(dāng)前觀測(cè)結(jié)果生成精確的增量重建,解決了同步定位和地圖映射 (SLAM) 系統(tǒng)的動(dòng)態(tài)特性,確保與 SLAM 更新保持一致。
以前在密集的純 RGB 重建方面,很大程度上忽略了在線應(yīng)用中相機(jī)姿態(tài)估計(jì)的動(dòng)態(tài)特性,在重建過(guò)程中依然采取靜態(tài)輸入圖片的傳統(tǒng)表述。
而科研團(tuán)隊(duì)在算法中納入了動(dòng)態(tài)特性,并將其集成到現(xiàn)有的 RGB 技術(shù)中。團(tuán)隊(duì)受 BundleFusion(一種采用線性更新算法將新視圖集成到場(chǎng)景中的 RGB-D 技術(shù))的啟發(fā),探索解構(gòu)了舊視圖,然后重新整合提供位置數(shù)據(jù)。
蘋(píng)果和加州大學(xué)圣塔芭芭拉分校的研究人員引入了一種獨(dú)特的基于深度學(xué)習(xí)的非線性去整合技術(shù),該技術(shù)專(zhuān)門(mén)用于促進(jìn) NeuralRecon 等技術(shù)的在線重建,該技術(shù)依賴于學(xué)習(xí)的非線性更新規(guī)則。
為了驗(yàn)證他們的方法,他們引入了 LivePose 數(shù)據(jù)集,這是一個(gè)開(kāi)創(chuàng)性的資源,包含使用 BundleFusion 生成的 ScanNet 的完整動(dòng)態(tài)姿勢(shì)序列。該數(shù)據(jù)集是評(píng)估其技術(shù)和促進(jìn)未來(lái)研究的關(guān)鍵工具。
這一突破有可能為增強(qiáng)現(xiàn)實(shí)、虛擬現(xiàn)實(shí)和其他需要精確 3D 建模的行業(yè)帶來(lái)新的可能性。
IT之家在此附上蘋(píng)果官方介紹鏈接,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。