IT之家 10 月 2 日消息,Meta 公司近日發(fā)布了一個人工智能系統(tǒng),可以根據(jù)文字提示生成短視頻。
IT之家了解到,這個系統(tǒng)名為 Make-A-Video,允許用戶輸入一連串的詞語,比如“一只穿著超級英雄服裝、披著紅色斗篷在天空中飛翔的狗”,然后生成一個五秒鐘的短視頻。
雖然效果相當粗糙,但這個系統(tǒng)顯然要比文字轉(zhuǎn)圖片 AI 系統(tǒng)更高級。
上個月,人工智能實驗室 OpenAI 向所有人提供了其最新的文本轉(zhuǎn)圖像人工智能系統(tǒng) DALL-E,而人工智能初創(chuàng)公司 Stability.AI 則推出了 Stable Diffusion,這是一個開源的文本轉(zhuǎn)圖像系統(tǒng)。
但文本轉(zhuǎn)視頻 AI 系統(tǒng)伴隨著一些更大的挑戰(zhàn)。首先,這些模型需要大量的計算能力。它們比大型文本到圖像的人工智能模型的計算量還要大,后者使用數(shù)百萬張圖像進行訓練,因為僅僅拼湊一個短視頻就需要數(shù)百張圖像。這意味著在可預見的未來,只有大型科技公司才有能力建立這些系統(tǒng)。它們的訓練也比較棘手,因為沒有大規(guī)模的高質(zhì)量視頻與文本配對的數(shù)據(jù)集。
為了解決這個問題,Meta 結(jié)合了三個開源圖像和視頻數(shù)據(jù)集的數(shù)據(jù)來訓練其模型。標準的文本轉(zhuǎn)圖像數(shù)據(jù)集的標記靜態(tài)圖像幫助人工智能學習物體的名稱和它們的樣子。一個視頻數(shù)據(jù)庫幫助它學習這些物體應該如何在世界中移動。這兩種方法的結(jié)合幫助 Make-A-Video 能夠從文本中大規(guī)模地生成視頻。
Meta 公司稱,該技術(shù)可以“為創(chuàng)作者和藝術(shù)家?guī)硇碌臋C會”。但是,隨著技術(shù)的發(fā)展,人們擔心它可能被用作創(chuàng)造和傳播錯誤信息和深度偽造的有力工具,它可能會使人們更難區(qū)分網(wǎng)上的真實和虛假內(nèi)容。
打造 Make-A-Video 的研究人員過濾掉了攻擊性的圖片和文字,但對于由數(shù)百萬和數(shù)以百萬計的文字和圖片組成的數(shù)據(jù)集,幾乎不可能完全刪除有偏見和有害的內(nèi)容。
Meta 公司的一位發(fā)言人說,目前還沒有向公眾提供這個模型,“作為這項研究的一部分,我們將繼續(xù)探索進一步完善和減少潛在風險的方法”。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。