設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

文字生成圖像已經(jīng)過(guò)時(shí),Meta 推出文字生成視頻 AI 系統(tǒng)

2022/10/2 17:16:55 來(lái)源:IT之家 作者:遠(yuǎn)洋 責(zé)編:遠(yuǎn)洋

IT之家 10 月 2 日消息,Meta 公司近日發(fā)布了一個(gè)人工智能系統(tǒng),可以根據(jù)文字提示生成短視頻。

IT之家了解到,這個(gè)系統(tǒng)名為 Make-A-Video,允許用戶輸入一連串的詞語(yǔ),比如“一只穿著超級(jí)英雄服裝、披著紅色斗篷在天空中飛翔的狗”,然后生成一個(gè)五秒鐘的短視頻。

雖然效果相當(dāng)粗糙,但這個(gè)系統(tǒng)顯然要比文字轉(zhuǎn)圖片 AI 系統(tǒng)更高級(jí)。

上個(gè)月,人工智能實(shí)驗(yàn)室 OpenAI 向所有人提供了其最新的文本轉(zhuǎn)圖像人工智能系統(tǒng) DALL-E,而人工智能初創(chuàng)公司 Stability.AI 則推出了 Stable Diffusion,這是一個(gè)開(kāi)源的文本轉(zhuǎn)圖像系統(tǒng)。

但文本轉(zhuǎn)視頻 AI 系統(tǒng)伴隨著一些更大的挑戰(zhàn)。首先,這些模型需要大量的計(jì)算能力。它們比大型文本到圖像的人工智能模型的計(jì)算量還要大,后者使用數(shù)百萬(wàn)張圖像進(jìn)行訓(xùn)練,因?yàn)閮H僅拼湊一個(gè)短視頻就需要數(shù)百?gòu)垐D像。這意味著在可預(yù)見(jiàn)的未來(lái),只有大型科技公司才有能力建立這些系統(tǒng)。它們的訓(xùn)練也比較棘手,因?yàn)闆](méi)有大規(guī)模的高質(zhì)量視頻與文本配對(duì)的數(shù)據(jù)集。

為了解決這個(gè)問(wèn)題,Meta 結(jié)合了三個(gè)開(kāi)源圖像和視頻數(shù)據(jù)集的數(shù)據(jù)來(lái)訓(xùn)練其模型。標(biāo)準(zhǔn)的文本轉(zhuǎn)圖像數(shù)據(jù)集的標(biāo)記靜態(tài)圖像幫助人工智能學(xué)習(xí)物體的名稱和它們的樣子。一個(gè)視頻數(shù)據(jù)庫(kù)幫助它學(xué)習(xí)這些物體應(yīng)該如何在世界中移動(dòng)。這兩種方法的結(jié)合幫助 Make-A-Video 能夠從文本中大規(guī)模地生成視頻。

Meta 公司稱,該技術(shù)可以“為創(chuàng)作者和藝術(shù)家?guī)?lái)新的機(jī)會(huì)”。但是,隨著技術(shù)的發(fā)展,人們擔(dān)心它可能被用作創(chuàng)造和傳播錯(cuò)誤信息和深度偽造的有力工具,它可能會(huì)使人們更難區(qū)分網(wǎng)上的真實(shí)和虛假內(nèi)容。

打造 Make-A-Video 的研究人員過(guò)濾掉了攻擊性的圖片和文字,但對(duì)于由數(shù)百萬(wàn)和數(shù)以百萬(wàn)計(jì)的文字和圖片組成的數(shù)據(jù)集,幾乎不可能完全刪除有偏見(jiàn)和有害的內(nèi)容。

Meta 公司的一位發(fā)言人說(shuō),目前還沒(méi)有向公眾提供這個(gè)模型,“作為這項(xiàng)研究的一部分,我們將繼續(xù)探索進(jìn)一步完善和減少潛在風(fēng)險(xiǎn)的方法”。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:Meta,人工智能

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知