2D 圖片“腦補(bǔ)”3D 模型,這次真的只用一張圖就行了 —— 只需要給 AI 隨便喂一張照片,它就能從不一樣的角度給你生成“新視圖”:
不僅能搞定 360° 的椅子和汽車,連人臉也玩出了新花樣,從“死亡自拍”角度到仰視圖都能生成:
更有意思的是,這只名叫 Pix2NeRF 的 AI,連訓(xùn)練用的數(shù)據(jù)集都有點“與眾不同”,可以在沒有 3D 數(shù)據(jù)、多視角或相機(jī)參數(shù)的情況下學(xué)會生成新視角??梢哉f是又把 NeRF 系列的 AI 們卷上了一個新高度。
用 GAN + 自動編碼器學(xué)會“腦補(bǔ)”
在此之前,NeRF 能通過多視圖訓(xùn)練 AI 模型,來讓它學(xué)會生成新視角下的 3D 物體照片。然而,這也導(dǎo)致一系列采用 NeRF 方法的模型,包括 PixelNeRF 和 GRF,都需要利用多視圖數(shù)據(jù)集才能訓(xùn)練出比較好的 2D 生成 3D 模型效果。
而多視圖數(shù)據(jù)集往往有限,訓(xùn)練時間也比較長。因此,作者們想出了一個新方法,也就是用自動編碼器來提取物體姿態(tài)和形狀特征,再用 GAN 直接生成全新的視角圖片。
Pix2NeRF 包含三種類型的網(wǎng)絡(luò)架構(gòu),即生成網(wǎng)絡(luò) G,判別網(wǎng)絡(luò) D 和編碼器 E。其中,生成網(wǎng)絡(luò) G 和判別網(wǎng)絡(luò) D 組成生成對抗網(wǎng)絡(luò) GAN,而編碼器 E 和生成網(wǎng)絡(luò) G 用于構(gòu)成自動編碼器:
首先,自動編碼器可以通過無監(jiān)督學(xué)習(xí),來獲取輸入圖像的隱藏特征,包括物體姿態(tài)和物體形狀,并利用學(xué)習(xí)到的特征重建出原始的數(shù)據(jù);然后,再利用 GAN 來通過姿態(tài)和形狀數(shù)據(jù),重構(gòu)出與原來的物體形狀不同的新視圖。
這里研究人員采用了一種叫做 π-GAN 的結(jié)構(gòu),生成 3D 視角照片的效果相比其他類型的 GAN 更好(作者們還對比了采用 HoloGAN 的一篇論文):
那么,這樣“混搭”出來的 AI 模型,效果究竟如何?
用糊圖也能生成新視角
作者們先是進(jìn)行了一系列的消融實驗,以驗證不同的訓(xùn)練方法和模型架構(gòu),是否真能提升 Pix2NeRF 的效果。例如,針對模型去掉 GAN 逆映射、自動編碼器,或不采用 warmup 針對學(xué)習(xí)率進(jìn)行預(yù)熱等,再嘗試生成新視角的人臉:
其中,GAN 逆映射(inversion)的目的是將給定的圖像反轉(zhuǎn)回預(yù)先訓(xùn)練的 GAN 模型的潛在空間中,以便生成器從反轉(zhuǎn)代碼中重建圖像。
實驗顯示,除了完整模型(full model)以外,去掉各種方法的模型,生成人臉的效果都不夠好。隨后,作者們又將生成照片的效果與其他生成新視圖的 AI 模型進(jìn)行了對比。
結(jié)果表明,雖然 Pix2NeRF 在 ShapeNet-SRN 的生成效果上沒有 PixelNeRF 好,但效果也比較接近:
而在 CelebA 和 CARLA 數(shù)據(jù)集上,Pix2NeRF 基本都取得了最好的效果。
而且模型還自帶一些“美顏”功能,即使是糊圖送進(jìn)去,也能給 GAN 出更絲滑的輪廓:
整體而言,除了人臉能生成不同角度的新視圖以外,物體還能腦補(bǔ)出 360° 下不同姿態(tài)的效果:
看來,AI 也和人類一樣,學(xué)會“腦補(bǔ)”沒見過的物體形狀了。
作者介紹
這次論文的作者均來自蘇黎世聯(lián)邦理工學(xué)院(ETH)。
論文一作 Shengqu Cai,ETH 碩士研究生,本科畢業(yè)于倫敦國王學(xué)院,研究方向是神經(jīng)渲染、生成模型和無監(jiān)督學(xué)習(xí)等,高中畢業(yè)于遼寧省實驗中學(xué)。
Anton Obukhov,ETH 博士生,此前曾在英偉達(dá)等公司工作,研究方向是計算機(jī)視覺和機(jī)器學(xué)習(xí)。
Dengxin Dai,馬普所高級研究員和 ETH(外部)講師,研究方向是自動駕駛、傳感器融合和有限監(jiān)督下的目標(biāo)檢測。
Luc Van Gool,ETH 計算機(jī)視覺教授,谷歌學(xué)術(shù)上的引用量達(dá)到 15w+,研究方向主要是 2D 和 3D 物體識別、機(jī)器人視覺和光流等。
目前這項研究的代碼還在準(zhǔn)備中。
感興趣的小伙伴可以蹲一波了~
論文地址:
https://arxiv.org/abs/2202.13162
項目地址:
https://github.com/sxyu/pixel-nerf
參考鏈接:
[1]https://arxiv.org/pdf/2102.03285.pdf
[2]https://arxiv.org/pdf/2012.02190.pdf
[3]https://www.mpi-inf.mpg.de/departments/computer-vision-and-machine-learning
[4]https://www.linkedin.com/in/shengqu-cai-818230185/
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。