IT之家 7 月 3 日消息,Meta 公司昨日(7 月 2 日)發(fā)布研究論文,介紹了名為 Meta 3D Gen(3DGen)的全新 AI 模型,可以在 1 分鐘內基于用戶輸入的提示詞,生成高質量的 3D 內容。
Meta 公司表示 Meta 3D Gen(3DGen)所生成的 3D 內容具備高分辨率紋理和材質貼圖,還支持基于物理的渲染(PBR),并能對此前生成的 3D 內容重新再生成新紋理。
IT之家援引論文主要內容,Meta 3D Gen 包含 text-to-3D 生成和 text-to-texture 生成兩個主要組件,其工作原理如下:
第一階段
根據用戶提供的文本提示,第一階段使用 Meta 的三維資產生成模型(AssetGen)創(chuàng)建初始 3D 資產。該步驟生成一個帶有紋理和 PBR 材質貼圖的 3D mesh。推理時間約為 30 秒。
第二階段
案例 1:生成更細化的 3D 紋理
根據階段 1 生成的三維資產和初始文本提示,階段 2 將為該資產生成更高質量的紋理和 PBR 貼圖。它使用 Meta 的文本到紋理生成器 Meta 3D TextureGen。推理時間約為 20 秒。
案例 2:再生成 3D 紋理
給定一個未紋理化的 3D mesh 和一個描述其所需外觀的提示。階段 2 還可以從頭開始為該三維資產生成紋理(mesh 可以是以前生成的,也可以是藝術家創(chuàng)建的)。推理時間約為 20 秒。
IT之家附上完整報告鏈接,感興趣的用戶可以深入閱讀。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。