原文標題:《虛幻 5 再次炸場!1 部 iPhone 搞定 3A 大作級動作捕捉,網(wǎng)友:游戲行業(yè)要變天》
什么樣的新技術(shù),能在 ChatGPT 的包圍圈里脫穎而出火爆全場?
一部 iPhone,兩分鐘,真人大變數(shù)字人!
還是表情動態(tài)、眼神細節(jié)一比一還原的那種。
沒錯,動作捕捉視頻,發(fā)布會現(xiàn)場 iPhone 錄制,后期處理全過程也都當場完成。
在此之前,這位《地獄之刃》女主演經(jīng)歷的動捕都是醬嬸的:
復(fù)雜的設(shè)備必不可少,而且不僅要在臉上標滿定位點,后期花費的時間也還得長達幾周甚至數(shù)月。
這不,Epic 剛把虛幻引擎 5 這一新能力公布出來,網(wǎng)友們都炸了鍋了,相關(guān)視頻播放量迅速突破百萬。
“現(xiàn)場”氛圍嘛,總結(jié)起來就是一通操作猛如虎,網(wǎng)友直呼太瘋狂:
(實現(xiàn)面部建模)從幾個月到幾分鐘,未來幾年游戲的發(fā)展必定是瘋狂的。
還有網(wǎng)友表示,以后再也不能說什么眼見為真了。
三幀視頻就能生成 3D 模型
具體來看看,這一名為“MetaHuman Animator”的騷操作,究竟是如何做到兩分鐘搞定面部動捕的。
以現(xiàn)場演示為例。首先,演員要錄制一段視頻,期間可以做出任何表情??梢允强鋸埖膽嵟?/p>
也可以是細小的眼神變化:
并且錄制全程只需一部 iPhone。
接下來,技術(shù)人員將錄制好的視頻上傳到軟件,整個處理過程都是在本地進行。
總結(jié)下來,處理過程分為兩步:
1、最新版本的 Live Link Face 應(yīng)用程序會盡可能用最佳的分辨率捕獲所有面部動態(tài);
2、MetaHuman Animator 使用視頻和 Dev 數(shù)據(jù)將其轉(zhuǎn)換成高保真的動畫。
在這個過程中,先是用 Live Link Face 對演員的視頻進行面部動作捕捉。
完成面捕之后,只需要三幀視頻 (正面、左側(cè)面、右側(cè)面)就能生成演員的“元人類 DNA”。
其中用到的算法是定制版面部特征算法,生成的過程只要幾秒鐘。
這樣一來,所有的面部數(shù)據(jù)都會被標定,還原出剛剛視頻錄制中的面部表情也就更加容易了。
更重要的是,在這個過程中,可以將真人視頻與生成的建模視頻進行逐幀比較。
然后等幾分鐘不到,完整的動畫視頻就成功生成了,最終工作人員要做的就只有微調(diào)和導(dǎo)入音頻。
在新應(yīng)用的加持下,做到下圖這樣的效果,對于工作人員來說也是信手拈來。
算法細節(jié)上,Epic 是采用自家“面部求解器”和“標志檢測器”來確定視頻中人物面部的關(guān)鍵操作點。
利用這些關(guān)鍵點,基于語義空間解決方案,AI 會將每一幀視頻映射到“n 維人類空間”數(shù)據(jù)庫中的最近鄰居上。
這個所謂“n 維人類空間”,是 Epic 在多年來收集到的詳細面部捕捉數(shù)據(jù)的基礎(chǔ)上,挑選打磨過的龐大數(shù)據(jù)庫,包含頭部各個部位的各種運動姿態(tài)。
網(wǎng)友:3D 動畫和游戲都要變天了
Epic 這波炸場,算是給最近被 AI 大浪沖擊得恍恍惚惚的人類,又添了一點刺激。
有 metahuman 領(lǐng)域的網(wǎng)友就說“3D 動畫和游戲都要變天了”:
幾個月前用 iPhone 還只能捕捉到大致的面部肌肉控制。
不過,相比于各種“失業(yè)”現(xiàn)場,對于這項技術(shù),更多人樂見其成。
有網(wǎng)友表示,有了這項技術(shù)之后,開發(fā)人員直接效率翻倍,能夠節(jié)省太多時間,要做的就只有后期潤色。
還有網(wǎng)友已經(jīng)在期待電影制作人使用這項技術(shù)了:
Epic 自己則說,新的 MetaHuman Animator 有利于“復(fù)雜角色技術(shù)的民主化”。并表示這項新技術(shù)有望在今年夏天更廣泛地推出。
那么,你期待嗎?
參考鏈接:
5
本文來自微信公眾號:量子位 (ID:QbitAI),作者:Pine 魚羊
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。