設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

谷歌攜手 UC 伯克利拋出王炸 IGN:要取代擴(kuò)散模型,可單步生成逼真圖像

2023/11/14 7:16:34 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 11 月 14 日消息,谷歌近日攜手加州大學(xué)伯克利分校(UC Berkeley),研發(fā)出了可取代擴(kuò)散模型(Diffusion Models)的全新生成式 AI 方法--冪等生成網(wǎng)絡(luò)(IGN)。

包括生成對(duì)抗網(wǎng)絡(luò)(GAN)、擴(kuò)散模型(Diffusion Models)和今年 3 月 OpenAI 發(fā)布的一致性模型(Consistency Models)在內(nèi),當(dāng)前主流生成式 AI 模型都是隨機(jī)噪點(diǎn)、草圖或者低分辨率或其他損壞的圖像等輸入,映射到與給定目標(biāo)數(shù)據(jù)分布相對(duì)應(yīng)的輸出(通常是自然圖像)來生成圖像。

以擴(kuò)散模型為例,在訓(xùn)練期間學(xué)習(xí)目標(biāo)數(shù)據(jù)分布,然后通過多個(gè)步驟執(zhí)行“去噪”處理。

谷歌研究團(tuán)隊(duì)提出了名為冪等生成網(wǎng)絡(luò)(IGN)的全新生成模型,從任何形式的輸入中生成合適的圖像,理想情況下只需一步即可完成。

該模型可以想象為一種“全局投影儀”,將任何輸入數(shù)據(jù)投射到目標(biāo)數(shù)據(jù)分布上,和現(xiàn)有其它模型算法不同,不會(huì)限于特定的輸入。

IGN 和 GAN、擴(kuò)散模型主要有兩點(diǎn)不同:

  • GAN 需要單獨(dú)的生成器和鑒別器模型,而 IGN 是“自我對(duì)抗”的,可以同時(shí)扮演著兩種角色。

  • 擴(kuò)散模型需要執(zhí)行增量步驟,而 IGN 可以單個(gè)步驟中將輸入映射到數(shù)據(jù)分布上。

研究人員使用 MNIST 和 CelebA 數(shù)據(jù)集展示了 IGN 的潛力。該團(tuán)隊(duì)展示了一些應(yīng)用,例如將草圖轉(zhuǎn)換為逼真的圖像、從噪點(diǎn)生成圖像或修復(fù)損壞的圖像等。

IT之家在此附上論文詳細(xì)地址,感興趣的用戶可以深入閱讀。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:谷歌

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知