設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

“文生圖”再升級!學(xué)習(xí)個性化參照,無限生成多樣圖片,輕松設(shè)計玩具建筑

新智元 2024/1/16 23:40:52 責(zé)編:清源

新智元報道  

編輯:LRS

【新智元導(dǎo)讀】將圖片集反演到語義空間的分布,生成多樣個性化圖片或 3D 渲染,支持靈活文本編輯、多樣性控制、概念混合等。

最近,來自南加州大學(xué)、哈佛大學(xué)等機(jī)構(gòu)的研究團(tuán)隊提出了一種全新的基于提示學(xué)習(xí)的方法 ——DreamDistribution。

這種方法可以讓任何基于文字提示的生成模型(比如文生圖、文生 3D 等),通過一組參照圖片來學(xué)習(xí)對應(yīng)的視覺屬性共性和變化的文本提示分布。

論文地址:https://arxiv.org/ abs / 2312.14216

項目主頁:https://briannlongzhao.github.io/ DreamDistribution/

代碼鏈接:https://github.com/ briannlongzhao / DreamDistribution

不僅如此,學(xué)習(xí)到的提示分布可以用來生成近似于參照圖片但更具多樣性的圖片,同時也支持調(diào)整分布的方差來控制多樣性,結(jié)合多個提示分布生成混合概念圖片等操作。

簡單來說就是,僅用幾張到十幾張參照圖片就能無限生成符合參照圖片視覺效果并具有顯著多樣性的圖片,輕松生成高達(dá)玩具模型多樣新設(shè)計!

在 3D 生成模型上即插即用,還可以生成不同樣式的跑車,建筑等:

同樣支持類似于 Textual Inversion,DreamBooth 的文本引導(dǎo)編輯能力:

在 3D 生成上同樣具有編輯能力:

在訓(xùn)練后支持控制生成的多樣性的操作(第二行向下多樣性增加):

支持多種概念的混合:

如下圖所示,用戶只需提供一組參照圖片,比如不同的高達(dá)玩具圖像,DreamDistribution 就可以學(xué)習(xí)到一個對應(yīng)于這一組圖片的文本提示分布 D*。

然后,在推理時通過從 D * 中采樣,生成有足夠變化和多樣性的分布內(nèi)輸出圖像。

此外,D * 同樣支持由文本引導(dǎo)的編輯來生成圖像的變化,比如從 Jumping D * 的提示分布中采樣即可生成跳躍姿勢的高達(dá)玩具圖片等等。

由于方法相對獨立于下游的生成模型,學(xué)習(xí)到的提示分布同樣適用于其他基于文本提示的生成任務(wù)。

除了展示中基于 MVDream 文本到 3D 生成作為例子,通過類似的提示修改也可生成具有適當(dāng)變化的符合文本提示的 3D 模型渲染。

研究動機(jī)

在擴(kuò)散生成模型日益蓬勃發(fā)展的今天,視覺生成的質(zhì)量隨之提高。

最先進(jìn)的圖片生成模型,如 DALL?E,Imagen,Stable Diffusion,MidJourney 等系列的文本生成圖像模型,已經(jīng)可以生成非常高質(zhì)量的圖片。

但同時,由于文本提示很難概括視覺概念上的細(xì)節(jié),一些研究如 Textual Inversion,DreamBooth 等通過圖片引導(dǎo)的方法追求模型生成的可控性以及個性化(personalization / customization)能力,即根據(jù)參照圖片使生成模型理解一個個性化概念,如特定的一條寵物狗,一個特定的玩具,等等,再通過文字引導(dǎo)的提示編輯來生成基于個性化概念變化的圖片。

然而,這些方法都著重于個性化一個具體的實例,但在很多情況下用戶可能需要個性化一個更抽象的視覺特征并生成新的實例,比如生成設(shè)計風(fēng)格一致的新高達(dá)玩具,或者相似畫風(fēng)的新卡通角色、新畫作、等等。

如果使用已有的實例層面的個性化方法則很難生成不同于參照圖片中給定的實例的圖片,并且如果參考圖片表述的并非同一個實例時,現(xiàn)有的實例層面的個性化方法則無法捕捉到參考圖片中的變化,并在生成過程中導(dǎo)致有限的多樣性。

方法概述

DreamDistribution 訓(xùn)練方法主要分為三部分。

1. 基于類似 Textual Inversion 的提示學(xué)習(xí)的方法,只更新固定長度的提示嵌入,凍結(jié)其余下游文本編碼器以及擴(kuò)散模型的參數(shù)。

2. 在提示學(xué)習(xí)的基礎(chǔ)上,引入了提示分布學(xué)習(xí),即保存多個長度相同的文本提示嵌入,并在語義空間內(nèi)用這些提示的語義特征去擬合一個提示的高斯分布。

同時為保證不同的提示在語義空間內(nèi)的特征不同,引入了正交損失項(Orthogonal Loss)去最小化不同提示之間在語義空間內(nèi)的的余弦相似度。

3. 為了優(yōu)化整體分布,使用了重參數(shù)的方法進(jìn)行多次可導(dǎo)采樣,最后的損失函數(shù)為與訓(xùn)練下游生成模型相同的圖片重建損失或噪聲預(yù)測的均方損失函數(shù),以及由超參數(shù)控制的正交損失函數(shù)。

推理時即可直接從學(xué)習(xí)到的文本提示分布中采樣,作為下游生成模型的提示輸入來輸出圖片。

如果需要進(jìn)行文本引導(dǎo)的提示修改,則對所有提示在嵌入空間加同樣的文本前綴或后綴,并重新在語義特征空間擬合高斯分布并采樣作為下游生成模型的輸入。

實驗和結(jié)果

多樣個性化生成

我們首先展示方法生成多樣的個性化圖像的能力。通過 DreamDistribution 生成的圖像保留了訓(xùn)練圖片中的共有視覺特征,同時與訓(xùn)練圖片不同并且具有高多樣性。

給定一組不容易用文本描述,但同時具有一些相似的視覺屬性的訓(xùn)練圖像(通常為 5-20 張),可以通過簡單地從學(xué)習(xí)的分布中采樣作為輸入提示生成多樣化的分布內(nèi)圖像。

因此,學(xué)習(xí)到的提示分布可以被視為與訓(xùn)練圖像集相對應(yīng)的描述的分布。

對比基線

我們與流行的實例級個性化方法進(jìn)行比較,包括 Textual Inversion、DreamBooth、Custom Diffusion。

我們還對比了使用簡短描述作為文本提示的方法,以及使用詳細(xì)描述的長文本作為提示的方法。這些比較強(qiáng)調(diào)了我們的方法在處理訓(xùn)練圖像的相似性和多樣性方面的能力。

使用相同的預(yù)訓(xùn)練 Stable Diffusion 版本 2.1,并且使用基線工作中提供的默認(rèn)超參數(shù)。

對比結(jié)果

下圖顯示了與基線方法的可視化比較。無論是短文本提示方法還是長文本提示方法,在視覺上都無法生成與參照圖片相符的結(jié)果,因為預(yù)訓(xùn)練的生成模型所理解的名詞很可能與參照圖像有偏差,而且參照圖像的細(xì)節(jié)很難用語言描述。

使用基線個性化方法生成的圖像通常在所有示例中顯示有限的變化或與參照圖片不一致的視覺屬性。這些方法都嘗試將圖片中的概念與單個固定的提示嵌入關(guān)聯(lián)起來,所以在語義上固定的嵌入缺少變化。

盡管去噪的過程能夠引入一些隨機(jī)性,但由于訓(xùn)練目標(biāo)是將各種不同的概念與同一個固定的嵌入建立聯(lián)系,這將導(dǎo)致 1)提示嵌入欠擬合并且僅學(xué)習(xí)到一個過于廣泛的概念,比如物體類別的名詞本身,從而導(dǎo)致生成出的圖片與參照圖片不符(如下圖中間一列倒數(shù)第 2,4 行),或者 2)擬合于訓(xùn)練圖像的某一個特定的視覺上的組合,從而導(dǎo)致生成圖像缺乏多樣性(如下圖左列倒數(shù)第 2,3,4 行)。

通過使用多個提示模型和優(yōu)化提示分布來建模多個概念,我們提出的方法能夠產(chǎn)生更多樣的外觀,視角等實質(zhì)性變化,例如左列最后一行。我們的方法還可以建模材質(zhì)和背景信息,并生成顏色和姿態(tài)方面具有顯著變化的新實例,如中間列示例中最后一行所示。

以及線條、整體風(fēng)格等變化,并生成像右列中最后一行展示的新涂鴉創(chuàng)作??傮w而言,DreamDistribution 能夠生成在顏色,視角、姿態(tài)、布局,細(xì)節(jié)設(shè)計等方面產(chǎn)生實質(zhì)性的變化的圖像,同時保持與參照圖像相符的適當(dāng)視覺屬性。

質(zhì)量和多樣性評估

我們在多樣性和質(zhì)量方面進(jìn)行了定量評估,在包括真實物體照片(大尺度和小尺度)、著名藝術(shù)家的作品,具有顯著風(fēng)格的卡通人物插畫以及在線社區(qū)插畫師的作品等 12 種多樣化圖像場景上訓(xùn)練了 DreamBooth、Textual Inversion、Custom Diffusion 和 DreamDistribution。

自動評估指標(biāo)

我們使用既定的自動評估指標(biāo)對生成圖像進(jìn)行評估,這些指標(biāo)衡量了合成圖像的多樣性和真實圖像之間的相似性。

在下表中,使用 FID、CLIP-I 和 DINO 等流行指標(biāo)來評估圖像質(zhì)量。我們的方法在所有三個質(zhì)量度量中均達(dá)到最佳質(zhì)量,表明我們的方法能夠創(chuàng)建更多滿足提示要求的高質(zhì)量圖像。

此外,在表 1 中報告了 Density 和 Coverage 指標(biāo)。Density 衡量真實樣本密集聚集的區(qū)域,而 Coverage 計算真實樣本領(lǐng)域中包含至少一個生成樣本的比例,反映圖片的多樣程度。我們的方法在整體上實現(xiàn)了最佳的覆蓋率和多樣性。

人類評估

我們進(jìn)行了基于 12 組參考圖像的人工評估。對于每個參考圖像集,我們分別使用基線方法和我們的方法生成圖像,每種方法生成 40 張圖像,總計 1,920 張圖像。我們指派了 10 位獨立的注釋者。

對于這 12 個參考集中的每一個,注釋者被要求根據(jù)他們對生成圖像與參考集的相似性以及生成集內(nèi)的多樣性的感知,選擇最傾向的生成圖像集。

這些方法是匿名的,因此注釋者不知道哪個生成集對應(yīng)于哪種方法。我們收集了總共 120 個樣本并統(tǒng)計了偏好的頻率。與三個基線模型相比,我們生成的圖像在多樣性方面表現(xiàn)整體更好。

提示分布的可控性

下圖展示了更多文本引導(dǎo)的提示編輯生成結(jié)果。

除了文本引導(dǎo)的提示編輯,學(xué)習(xí)到的提示分布還可以通過縮放方差來控制生成的多樣性。如下圖所示,當(dāng)縮放系數(shù) γ 變大時,生成的圖像更具隨機(jī)性,而縮放系數(shù)等于 0 時則生成圖片的多樣性和隨機(jī)性顯著下降。

不同的提示分布還可以通過按權(quán)重相加來得到生成具有混合概念的圖片的效果,如下圖所示,按不同比例混合中國山水畫和梵高畫作所對應(yīng)的提示分布,可以生成多樣的混合兩種特征的圖片。

應(yīng)用于 3D 生成

由于方法獨立于下游生成模型,學(xué)習(xí)到的提示分布可以即插即用于其他文字提示驅(qū)動的生成任務(wù),譬如文字生成 3D。

我們實驗使用 MVDream 作為 3D 生成模型,結(jié)果顯示在 3D 生成任務(wù)上同樣可以體現(xiàn)多樣性生成,以及文本提示編輯等功能。

總結(jié)

這項工作注重于不同于實例層面而時更廣泛的圖片集層面的個性化生成任務(wù),從而使得生成的圖像更具多樣性、創(chuàng)新性,但同時符合參照圖片的一些視覺屬性。

工作還有一些不足,比如生成效果高度依賴于訓(xùn)練圖片的質(zhì)量和多樣性,并且在 3D 生成上的結(jié)果還有提高空間。

研究人員希望未來能有辦法將方法優(yōu)化得更魯棒,同時提升在類似 3D 生成任務(wù)上的效果。更多細(xì)節(jié)請參考原文章。

參考資料

  • https://briannlongzhao.github.io/DreamDistribution/

本文來自微信公眾號:新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:文生圖,人工智能

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知