設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

渲染速度超 100 FPS,浙大研發(fā)突破性框架 Human101:利用單視角視頻構(gòu)建數(shù)字人體模型

2023/12/29 15:26:15 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 12 月 29 日消息,在虛擬現(xiàn)實(shí)和 3D 建模過程中,如何利用有限的數(shù)據(jù)源(例如單視角的多段視頻),構(gòu)建動態(tài)、高保真數(shù)字人體模型存在諸多挑戰(zhàn)。

傳統(tǒng)方法主要依賴大量訓(xùn)練數(shù)據(jù)和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),需要平衡詳細(xì)且準(zhǔn)確的數(shù)字模型和實(shí)時應(yīng)用程序所需的計(jì)算效率,因此在渲染速度和模型保真度方面會有所犧牲。

浙江大學(xué) ReLER 實(shí)驗(yàn)室攜手 CCAI,為了應(yīng)對這些調(diào)整,開發(fā)突破性框架--Human101,可以顯著提高虛擬現(xiàn)實(shí)應(yīng)用程序中的訓(xùn)練和渲染速度。

這種創(chuàng)新方法在確保生成模型的高保真度情況下,快速高效地重建 3D 數(shù)字人體模型。

Human101 的核心在于集成了 3D 高斯散射和先進(jìn)的動畫技術(shù),有助于高效處理單視角視頻數(shù)據(jù),生成動態(tài)的 3D 人體模型。

Human101 利用了一種新穎的、以人類為中心的前向高斯動畫方法,避免了對目標(biāo)姿勢點(diǎn)的相應(yīng)規(guī)范點(diǎn)的窮舉搜索,直接將規(guī)范點(diǎn)變形到觀察空間,簡化了變形過程并提高了渲染速度。

此外 Human101 還采用規(guī)范人類初始化方法,更有效地初始化原始高斯分布,極大地加快了模型的收斂速度。

從測試結(jié)果來看,訓(xùn)練 3D 高斯體可以在 100 秒內(nèi)完成,相比較現(xiàn)有方法,大幅縮短了時間。

此外,渲染速度超過 100 FPS,這一重大改進(jìn)為實(shí)時交互式應(yīng)用程序和沉浸式虛擬現(xiàn)實(shí)體驗(yàn)開辟了新的可能性,這種效率并未以質(zhì)量為代價;該框架設(shè)法保持甚至在許多情況下超過了當(dāng)前方法的視覺保真度。

IT之家附上論文參考地址:https://arxiv.org/abs/2312.15258

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AI,浙大

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知