IT之家 1 月 22 日消息,雙手是我們與世界交互的重要工具,也是我們自我認(rèn)同的重要部分。在虛擬現(xiàn)實(shí)的世界里,一雙逼真寫(xiě)實(shí)的雙手將極大地提升用戶(hù)沉浸感和化身認(rèn)同感。Meta 近期正在致力于讓虛擬現(xiàn)實(shí)中的雙手盡可能逼真和個(gè)性化,以增強(qiáng)用戶(hù)在元宇宙中的沉浸式體驗(yàn)。
近日,來(lái)自 Meta Codec Avatars 實(shí)驗(yàn)室和新加坡南洋理工大學(xué)的研究人員聯(lián)合發(fā)布了開(kāi)創(chuàng)性研究成果 ——URHand,即“通用可變光照手部模型(Universal Relightable Hands)”。
URHand 并非簡(jiǎn)單的手部模型,它能夠根據(jù)用戶(hù)的真實(shí)雙手進(jìn)行個(gè)性化調(diào)整,并模擬真實(shí)光照環(huán)境下的手部細(xì)節(jié),研究人員將其稱(chēng)為“首個(gè)可適應(yīng)不同視角、姿勢(shì)、光照和個(gè)體差異的通用可變光照手部模型”。該模型的一大亮點(diǎn)是,用戶(hù)只需要用手機(jī)簡(jiǎn)單上傳的幾張自己的手部照片,該模型就定制出與本人相差無(wú)幾的虛擬手,輕松將“你的手”帶入虛擬世界。
目前尚不清楚這項(xiàng)研究何時(shí)能轉(zhuǎn)化為實(shí)際產(chǎn)品。Meta 多年來(lái)一直致力于打造逼真的 Codec Avatars 技術(shù),期望實(shí)現(xiàn)跨越時(shí)空的真實(shí)互動(dòng)。IT之家注意到,近期扎克伯格與 Lex Fridman 在一檔播客節(jié)目中展示了該技術(shù)的最新進(jìn)展。Meta 的目標(biāo)是將 Codec Avatars 帶入獨(dú)立式 VR 頭顯,但目前仍面臨諸多挑戰(zhàn)。
打造一個(gè)逼真的虛擬化身不僅需要逼真的頭部和面部,還需要自然的肢體動(dòng)作、真實(shí)服飾細(xì)節(jié)以及高度個(gè)性化的雙手。雙手的重要性尤為突出,因?yàn)樗鼈兪亲晕艺J(rèn)同的重要部分。任何體驗(yàn)過(guò)虛擬現(xiàn)實(shí)中與自己真實(shí)雙手完全不符的手部模型的人都會(huì)明白那種失真感帶來(lái)的不適。URHand 的出現(xiàn),無(wú)疑為解決這一難題邁出了重要一步。未來(lái),當(dāng)你在元宇宙中伸出手指,打招呼,或是握住虛擬物件時(shí),或許會(huì)感覺(jué)就像是在現(xiàn)實(shí)世界中一樣自然。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。