設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

四少女火爆外網(wǎng),ControlNet 組合拳效果驚人,顛覆 AI 繪畫游戲規(guī)則

量子位 2023/2/23 12:25:13 責(zé)編:夢澤

四位美少女,帶著 AI 畫畫在 ChatGPT 的熱浪中殺出了一片天地。

新“魔法”一出,瞬間吸引全場目光:

原本是一張四個閨蜜在沙灘邊上的普通合影照:

在新魔法的加持下,“啪的一下”畫風(fēng)兩極反轉(zhuǎn),瞬間進(jìn)入唯美動漫風(fēng):

還有效果截然不同的,例如醬紫:

不僅是動漫畫風(fēng)效果上的驚艷,就連人物的 pose 也是保持的“原汁原味”,美女們這下子算是分分鐘實現(xiàn)了動漫自由。

如此效果一出,也是引來了不少網(wǎng)友們的圍觀,直呼“在線求教程”:

也有不少人呼吁可以將這套玩法商業(yè)化了:

兩大 AI 高手聯(lián)動

使出這套 AI 組合拳的,是一位叫“viggo”的華人小哥博主。

他所持的兩大法寶分別是:左手 StableDiffusion,右手 ControlNet。

StableDiffusion,相信很多友友們都已經(jīng)很熟悉了,是根據(jù)輸入提示的文本,就可以快速出圖的 AI 作畫神器。

ControlNet,則是新晉當(dāng)紅 AI 插件(GitHub 上線 2 天狂攬 4.6K 星),相當(dāng)于給 AI 作畫這事加了 buff,可以精準(zhǔn)控制手部細(xì)節(jié)和整體結(jié)構(gòu)等。

小哥的做法說起也是比較簡單,就是先將原圖導(dǎo)入進(jìn)去,用 StableDiffusion 圖片轉(zhuǎn)文字。

再用 Text2Prompt 插件拓展找到對應(yīng)的關(guān)鍵詞;最后用 ControlNet 插件綁定骨骼開始換關(guān)鍵詞試效果。

當(dāng)然,原圖中四位美女的姿勢,也可以根據(jù)小哥繪制骨骼結(jié)構(gòu)的不同發(fā)生相應(yīng)的改變。例如這樣的:

相比原圖中人物的位置,上面這張中的人物更分散了一些,也站到了一排;以及上半身手臂的姿勢也發(fā)生了變化。

也是得益于 StableDiffusion 的能力,AI 生成畫作在畫風(fēng)上也能產(chǎn)出截然不同的效果:

效果之驚艷,已經(jīng)有網(wǎng)友按耐不住,照著小哥的說法“復(fù)現(xiàn)”了一遍,并表示:

第一次接觸,很好玩,嘗試復(fù)現(xiàn)下,感覺良好。

不過有一說一,這位新晉 AI 作畫頂流插件 ControlNet 的“神通”可不僅于此。

簡單幾筆也可畫出真人效果

例如微博博主“海辛 Hyacinth”便分享了他用 ControlNet 插件后“草圖變美女”的玩法。

他先是繪制了一張線稿:

然后是開啟了 ControlNet 的 scribble 模細(xì)化效果,便得到了這樣的結(jié)果:

效果之逼真,也是令人嘆服了。

“海辛 Hyacinth”還測試了在同一 seed 下不同參數(shù)的效果:

有小伙伴就要問了,那如果關(guān)閉了 ControlNet,效果會如何?別急,博主也做了測試,效果是這樣的:

“海辛 Hyacinth”的這波操作也是得到了 ControlNet 作者的認(rèn)可:

這也把博主本人激動壞了,直呼“尖叫”:

當(dāng)然,ControlNet 還可以實現(xiàn)其它諸多的功能,例如在裝修設(shè)計上,可以輸入一張拍好的臥室圖,分分鐘輸出草圖和換了風(fēng)格的效果圖:

以及在 ControlNet 的在線網(wǎng)站中,也提供了許多不同功能玩法體驗,感興趣的小伙伴可以去嘗試哦:

給 AI 畫畫模型加 buff

ControlNet 的原理,本質(zhì)上是給預(yù)訓(xùn)練擴(kuò)散模型增加一個額外的輸入,控制它生成的細(xì)節(jié)。

這里可以是各種類型的輸入,作者給出來的有 8 種,包括草圖、邊緣圖像、語義分割圖像、人體關(guān)鍵點特征、霍夫變換檢測直線、深度圖、人體骨骼等。

那么,讓大模型學(xué)會“按輸入條件生成圖片”的原理是什么呢?

ControlNet 整體思路和架構(gòu)分工如下:

具體來說,ControlNet 先復(fù)制一遍擴(kuò)散模型的權(quán)重,得到一個“可訓(xùn)練副本”(trainable copy)。

相比之下,原擴(kuò)散模型經(jīng)過幾十億張圖片的預(yù)訓(xùn)練,因此參數(shù)是被“鎖定”的。而這個“可訓(xùn)練副本”只需要在特定任務(wù)的小數(shù)據(jù)集上訓(xùn)練,就能學(xué)會條件控制。

據(jù)作者表示,即使數(shù)據(jù)量很少(不超過 5 萬張圖片),模型經(jīng)過訓(xùn)練后條件控制生成的效果也很好。

“鎖定模型”和“可訓(xùn)練副本”通過一個 1×1 的卷積層連接,名叫“0 卷積層”。

0 卷積層的權(quán)重和偏置初始化為 0,這樣在訓(xùn)練時速度會非常快,接近微調(diào)擴(kuò)散模型的速度,甚至在個人設(shè)備上訓(xùn)練也可以。

例如一塊英偉達(dá) RTX 3090TI,用 20 萬張圖像數(shù)據(jù)訓(xùn)練的話只需要不到一個星期:

作者基于當(dāng)前大火的 Stable Diffusion 進(jìn)行了具體實現(xiàn),主要架構(gòu)如下:

針對不同的輸入,作者也給出了對應(yīng)不同的模型,生成效果也都不錯。

具體效果,就如我們剛才所展示的那樣了。

One More Thing

最后來一個溫馨提示…… 男同胞們不要覺得 2 月 14 日這個情人節(jié)過完就安全了。

接下來還可能有白色情人節(jié)(3 月 14 日)、黑色情人節(jié)(4 月 14 日)、玫瑰情人節(jié)(5 月 14 日)、親親情人節(jié)(6 月 14 日)……

趕緊把這套“AI 組合拳”學(xué)起來,送自己的老婆 / 女朋友一張唯美的禮物吧!

參考鏈接:

  • [1] https://twitter.com/decohack/status/1627378506857611264

  • [2] https://weibo.com/timerainer1015

  • [3] https://github.com/lllyasviel/ControlNet

  • [4] https://twitter.com/lvminzhang/status/1627142848788463616

本文來自微信公眾號:量子位 (ID:QbitAI),作者:金磊

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AI,模型,圖像

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知