Stable Diffusion 插件、“AI 繪畫細節(jié)控制大師”ControlNet 迎來重磅更新:
只需使用文本提示詞,就能在保持圖像主體特征的前提下,任意修改圖像細節(jié)。
比如給美女從頭發(fā)到衣服都換身造型,表情更親和一點:
抑或是讓模特從甜美鄰家女孩切換到高冷御姐,身體和頭部的朝向、背景都換個花樣兒:
—— 不管細節(jié)怎么修改,原圖的“靈魂”都還在。
除了這種風格,動漫類型的它也能駕馭得恰到好處:
來自推特的 AI 設計博主 @sundyme 就稱:
效果比想象得要好!
只需要一張參考圖就能完成以上轉變,部分圖片幾乎可以達到定制大模型的效果了。
咳咳,各位 AI 繪畫圈的朋友們,打起精神來,又有好玩的了。
(ps. 第一三張效果圖來自油管博主 @Olivio Sarikas,第二張來自推特博主 @sundyme)
ControlNet 上新:保留原圖畫風的修圖功能
以上更新內容,其實指的是一個叫作“reference-only”的預處理器。
它不需要任何控制模型,直接使用參考圖片就能引導擴散。
作者介紹,這個功能其實類似于“inpaint”功能,但不會讓圖像崩壞。
(Inpaint 是 Stable Diffusion web UI 中的一個局部重繪功能,可以將不滿意、也就是被手工遮罩的地方進行重新繪制。)
一些資深玩家可能都知道一個 trick,就是用 inpaint 來進行圖像擴散。
比如你有一張 512x512 的狗的圖像,然后想用同一只狗生成另一張 512x512 的圖像。
這時你就可以將 512x512 的狗圖像和 512x512 的空白圖像連接到一張 1024x512 的圖像中,然后使用 inpaint 功能,mask 掉空白的 512x512 部分,漫射出具有相似外觀的狗的形象。
在這個過程中,由于圖像只是簡單粗暴的進行拼接,加上還會出現失真現象,所以效果一般都不盡如人意。
有了“reference-only”就不一樣了:
它可以將 SD(即“Stable Diffusion”)的注意力層直接鏈接到任何獨立的圖像,方便 SD 直接讀取這些圖像作為參考。
也就是說,現在你想要在保持原圖風格的前提下進行修改,使用提示詞直接在原圖上就能操作。
如官方示例圖將一只靜立的小狗改成奔跑動作:
你只需要將你的 ControlNet 升級到 1.1.153 版本以上,然后選擇“reference-only”作為預處理器,上傳狗的圖片,輸入提示詞“a dog running on grassland, best quality……”,SD 就只會用你的這張圖作為參考進行修改了。
網友:ControlNet 迄今最好的一個功能
“reference-only”功能一出,有不少網友就上手體驗了。
有人稱這是 ControlNet 迄今為止最棒的一個功能:
傳一張帶有人物姿勢的動漫圖片,再寫一句看上去跟原圖完全無關的提示。突然之間,你想要的效果就在原圖的基礎上跑出來了。真的很強,甚至說是達到了改變游戲規(guī)則的程度。
還有人稱:
是時候把以前丟棄的廢圖都撿回來重新修復一下了。
當然,認為它也不是那么完美也有(比如開頭第一張效果圖里美女的耳環(huán)不對,二張圖里頭發(fā)也都是殘缺的),但網友還是表示“總歸方向是對了”。
以下是三位推特博主嘗試的效果,主要都是動漫風,一起欣賞一下:
有沒有戳中你的心巴?
參考鏈接:
[1]https://github.com/Mikubill/sd-webui-controlnet/discussions/1236
[2]https://twitter.com/sundyme/status/1657605321052012545
[3]https://twitter.com/uoyuki667/status/1657748719155167233
[4]https://twitter.com/br_d/status/1657926233068556289
[5]https://twitter.com/aiilustnews/status/1657941855773003776
本文來自微信公眾號:量子位 (ID:QbitAI),作者:豐色
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。