IT之家 11 月 20 日消息,Meta 昨日宣布為 Facebook 和 Instagram 推出兩款基于 AI 的圖像編輯工具,分別是“Emu Edit”和“Emu Video”,適用領(lǐng)域包括照片和視頻,目前 Meta 公布了這兩項 AI 工具的更多信息,IT之家整理如下。
官方介紹稱,Emu Edit 模型僅用文字指令就可以準(zhǔn)確編輯圖像,而通過分解文字轉(zhuǎn)視頻(Text-to-Video,T2V)的生成過程,開發(fā)團(tuán)隊公布了一種名為 Emu Video 的方法,可以改善最終生成視頻的品質(zhì)和多樣性。
據(jù)悉,Emu Edit 號稱是一種創(chuàng)新的影像編輯方法,目的是要簡化各種影音操作任務(wù),為視頻編輯提供更多功能與更高的精確度。
Emu Edit 可以接受用戶指令,進(jìn)行各種形式的編輯,包括區(qū)域和全局編輯、移除和添加背景,也能夠調(diào)整顏色并進(jìn)行矢量圖轉(zhuǎn)換,或進(jìn)行圖像構(gòu)成元素的檢測和分割。
Meta 表示,Emu Edit 把視覺任務(wù)作為指令,納入到所生成模型中,進(jìn)而在視頻生成和編輯中,提供更好的控制能力。研究人員指出,當(dāng)前的圖像編輯模型,通常會過度修改圖像,或是修改不足,而 Emu Edit 的優(yōu)勢在于能夠準(zhǔn)確按照指令進(jìn)行編輯。
Meta 使用了 1000 萬個合成數(shù)據(jù)集訓(xùn)練 Emu Edit,號稱是目前同類中規(guī)模最大的數(shù)據(jù)集,從而帶來了更好的圖像編輯能力,其中每個樣本都包含圖像輸入、任務(wù)描述,以及目標(biāo)輸出圖像??墒鼓P椭覍嵉貓?zhí)行指令,產(chǎn)生“比當(dāng)前所有競品都要好的結(jié)果”。
而 Emu Video 是一種簡單且高效的文字轉(zhuǎn)視頻生成方法,該方法運用擴(kuò)散模型,并以 Emu Edit 為基礎(chǔ)。開發(fā)團(tuán)隊解釋,這種通過生成視頻的架構(gòu)能夠應(yīng)對外界各種輸入方式,包括文字、圖像、圖文組合等,此外 Emu Video 也能接受文字類提示詞,將用戶提供的圖像“動畫化”,從而提供了“超越過去模型的能力”。
Emu Video 將影片生成過程拆分為兩個步驟,首先是根據(jù)文字提示生成圖像,然后基于文字和生成圖像產(chǎn)生視頻。這種拆分步驟的影片生成方法,讓研究人員可以有效地訓(xùn)練生成模型。
研究人員進(jìn)一步解釋,Emu Video 與過去 Make-A-Video 等需要一系列深度生成模型的研究不同,Emu Video 更簡單,僅使用 2 個擴(kuò)散模型,就能生成 512x512 分辨率、每秒 16FPS、長 4 秒鐘的視頻。
IT之家發(fā)現(xiàn),Meta 援引評估數(shù)據(jù),證明 Emu Video 生成的視頻品質(zhì)以及“遵循提示詞的忠實程度”相對業(yè)內(nèi)競品更好。
在品質(zhì)方面,有 96%受訪者偏好 Emu Video 而非此前的 Make-A-Video 方案,而對于“提示詞的忠實度”方面,Emu Video 獲得了 85%受訪者的青睞。
相關(guān)閱讀:
《Meta 展示全新 AI 圖像編輯工具:文本指令“指哪打哪”,主體背景都能換》
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。