設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

智譜開源文生圖模型 CogView3-Plus,相關(guān)功能上線智譜清言 App

2024/10/14 11:13:47 來源:IT之家 作者:清源 責(zé)編:清源
感謝IT之家網(wǎng)友 有鯽雪狐 的線索投遞!

IT之家 10 月 14 日消息,智譜技術(shù)團(tuán)隊(duì)今天宣布開源文生圖模型 CogView3 及 CogView3-Plus-3B ,該系列模型的能力已經(jīng)上線“智譜清言”App。

據(jù)介紹,CogView3 是一個(gè)基于級聯(lián)擴(kuò)散的 text2img 模型,其包含如下三個(gè)階段:

  • 第一階段:利用標(biāo)準(zhǔn)擴(kuò)散過程生成 512x512 低分辨率的圖像。

  • 第二階段:利用中繼擴(kuò)散過程,執(zhí)行 2 倍的超分辨率生成,從 512x512 輸入生成 1024x1024 的圖像。

  • 第三階段:將生成結(jié)果再次基于中繼擴(kuò)散迭代,生成 2048×2048 高分辨率的圖像。

官方表示,在實(shí)際效果上,CogView3 在人工評估中比目前最先進(jìn)的開源文本到圖像擴(kuò)散模型 SDXL 高出 77.0%,同時(shí)只需要 SDXL 大約 1/10 的推理時(shí)間。

CogView3-Plus 模型則在 CogView3(ECCV'24)的基礎(chǔ)上引入了最新的 DiT 框架,以實(shí)現(xiàn)整體性能的進(jìn)一步提升。據(jù)介紹,其采用 Zero-SNR 擴(kuò)散噪聲調(diào)度,并引入了文本-圖像聯(lián)合注意力機(jī)制。與常用的 MMDiT 結(jié)構(gòu)相比,它在保持模型基本能力的同時(shí),有效降低訓(xùn)練和推理成本。CogView-3Plus 使用潛在維度為 16 的 VAE。

IT之家附地址如下:

開源倉庫地址:

  • https://github.com/THUDM/CogView3

Plus 開源模型倉庫:

  • https://huggingface.co/THUDM/CogView3-Plus-3B

  • https://modelscope.cn/models/ZhipuAI/CogView3-Plus-3B

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:智譜智譜清言,生成式AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知