IT之家 6 月 7 日消息,騰訊混元團隊聯(lián)合中山大學(xué)、香港科技大學(xué)聯(lián)合推出全新圖生視頻模型“Follow-Your-Pose-v2”,相關(guān)成果已經(jīng)發(fā)表在 arxiv 上(IT之家附 DOI:10.48550/arXiv.2406.03035)。
據(jù)介紹,“Follow-Your-Pose-v2”只需要輸入一張人物圖片和一段動作視頻,就可以讓圖片上的人跟隨視頻上的動作動起來,生成視頻長度可達(dá) 10 秒。
與此前推出的模型相比,“Follow-Your-Pose-v2”可以在推理耗時更少的情況下,支持多人視頻動作生成。
此外,該模型具備較強的泛化能力,無論輸入人物是什么年齡、服裝,背景如何雜亂,動作視頻的動作如何復(fù)雜,都能生成出高質(zhì)量的視頻。
正如IT之家前一天的報道,騰訊已經(jīng)公布了針對騰訊混元文生圖開源大模型(混元 DiT)的加速庫,號稱大幅提升推理效率,生圖時間縮短 75%。
官方表示,混元 DiT 模型的使用門檻也大幅降低,用戶可以基于 ComfyUI 的圖形化界面使用騰訊混元文生圖模型能力。
相關(guān)閱讀:
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。