設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

谷歌 AI 生成視頻兩連發(fā):720p 高清 + 長鏡頭,網(wǎng)友:對短視頻行業(yè)沖擊太大

量子位 2022/10/7 15:51:13 責編:遠生

內(nèi)容生成 AI 進入視頻時代!

Meta 發(fā)布「用嘴做視頻」僅一周,谷歌 CEO 劈柴哥接連派出兩名選手上場競爭。

第一位 Imagen Video 與 Meta 的 Make-A-Video 相比突出一個高清,能生成 1280*768 分辨率、每秒 24 幀的視頻片段。

另一位選手 Phenaki,則能根據(jù) 200 個詞左右的提示語生成 2 分鐘以上的長鏡頭,講述一個完整的故事。

網(wǎng)友看過后表示,這一切進展實在太快了。

也有網(wǎng)友認為,這種技術一旦成熟,會沖擊短視頻行業(yè)。

那么,兩個 AI 具體有什么能力和特點,我們分別來看。

Imagen Video:理解藝術風格與 3D 結構

Imagen Video 同樣基于最近大火的擴散模型,直接繼承自 5 月份的圖像生成 SOTA 模型 Imagen。

除了分辨率高以外,還展示出三種特別能力。

首先它能理解并生成不同藝術風格的作品,如“水彩畫”或者“像素畫”,或者直接“梵高風格”。

它還能理解物體的 3D 結構,在旋轉展示中不會變形。

最后它還繼承了 Imagen 準確描繪文字的能力,在此基礎上僅靠簡單描述產(chǎn)生各種創(chuàng)意動畫,

這效果,直接當成一個視頻的片頭不過分吧?

除了應用效果出色以外,研究人員表示其中用到的一些優(yōu)化技巧不光對視頻生成有效,可以泛化至一般擴散模型。

具體來說,Imagen Video 是一系列模型的集合。

語言模型部分是谷歌自家的 T5-XXL,訓練好后凍結住文本編碼器部分。

與負責從文本特征映射到圖像特征的 CLIP 相比,有一個關鍵不同:

語言模型只負責編碼文本特征,把文本到圖像轉換的工作丟給了后面的視頻擴散模型。

基礎模型,在生成圖像的基礎上以自回歸方式不斷預測下一幀,首先生成一個 48*24、每秒 3 幀的視頻。

接下來,一系列空間超分辨率(Spatial Super-Resolution)與時間超分辨率(Temporal Super-Resolution)模型接連對視頻做擴展處理。

所有 7 種擴散模型都使用了 v-prediction parameterization 方法,與傳統(tǒng)方法相比在視頻場景中可以避免顏色偏移。

這種方法擴展到一般擴散模型,還使樣本質量指標的收斂速度更快。

此外還有漸進式蒸餾(Progressive Distillation),將每次迭代所需的采樣步驟減半,大大節(jié)省顯存消耗。

這些優(yōu)化技巧加起來,終于使生成高清視頻成為可能。

Phenaki:人人都能是“導演”

Phenaki 的論文投了 ICLR 2023 會議,在一周前 Meta 發(fā)布 Make-a-video 的時候還是匿名雙盲評審狀態(tài)。

如今信息公開,原來研究團隊同樣來自谷歌。

在公開的信息中,Phenaki 展示了它交互生成視頻的能力,可以任意切換視頻的整體風格:高清視頻 / 卡通,還能夠切換任意場景。

還可以向 Phenaki 輸入一個初始幀以及一個提示,便能生成一段視頻。

這都還是開胃小菜,Phenaki 真正的大招是:講故事,它能夠生成 2 分鐘以上的長視頻,通過輸入長達 200 多個字符的系列提示來得到。

(那有了這個模型,豈不是人人都能當導演了?手動狗頭)

從文本提示到視頻,計算成本高、高質量文本視頻數(shù)據(jù)數(shù)量有限以及視頻長度可變一直以來都是此類模型發(fā)展的難題。

以往的大多數(shù) AI 模型都是通過單一的提示來生成視頻,但若要生成一個長時間并且連貫的視頻這遠遠不夠。

而 Phenaki 則能生成 2 分鐘以上的視頻,并且還具備故事情節(jié),這主要歸功于它能夠根據(jù)一系列的提示來生成視頻的能力。

具體來說,研究人員引入了一個新的因果模型來學習表示視頻:將視頻視作圖像的一個時間序列。

這個模型基于 transformer,可以將視頻分解成離散的小表示,而分解視頻則是按照時間的因果順序來進行的。

再講通俗一點,就是通過空間 transformer 將單個提示進行編碼,隨后再用因果 transformer 將多個編碼好的提示串聯(lián)起來。

一個提示生成一段視頻,這樣一來,視頻序列便可以沿著提示中描述的時間序列將整個“故事”串在一起。

因為將視頻壓縮為離散的圖像序列,這樣也大大減少了 AI 處理標記視頻的數(shù)量,在一定程度上降低了模型的訓練成本。

提到模型訓練,和大型圖像系統(tǒng)一樣,Phenaki 也主要使用文本-圖像數(shù)據(jù)進行訓練,此外,研究人員還用 1.4 秒,幀率 8FPS 的短視頻文本對 Phenaki 進行訓練。

僅僅通過對大量圖像文本對以及少量視頻文本例子進行聯(lián)合訓練,便能達到突破視頻數(shù)據(jù)集的效果。

Imagen Video 和 Phenaki,谷歌接連放出大招,從文本到視頻的 AI 發(fā)展勢頭迅猛。

值得一提的是,Imagen Video 一作表示,兩個團隊將合作進行下一步研究。

嗯,有的網(wǎng)友已經(jīng)等不及了。

One More Thing

出于安全和倫理的考慮,谷歌暫時不會發(fā)布兩個視頻生成模型的代碼或 Demo。

不過既然發(fā)了論文,出現(xiàn)開源復刻版本也只是時間問題。

畢竟當初 Imagen 論文出來沒幾個月,GitHub 上就出現(xiàn)了 Pytorch 版本。

另外 Stable Diffusion 背后的 StabilityAI 創(chuàng)始人兼 CEO 也說過,將發(fā)布比 Meta 的 Make-A-Video 更好的模型,而且是大家都能用上的那種。

當然,每次 AI 有了新進展后都會不可避免地碰到那個話題 ——AI 會不會取代人類。

目前來說,一位影視行業(yè)的工作者表示還不到時候:

老實說,作為一個在電影行業(yè)工作了十年的人,這個話題令人沮喪。

在他看來,當前的視頻生成 AI 在外行看起來已經(jīng)足夠驚艷,不過業(yè)內(nèi)人士會認為 AI 還缺乏對每一個鏡頭的精細控制。

對于這個話題,StabilityAI 新任首席信息官 Daniel Jeffries 此前撰文表示,AI 最終會帶來更多的工作崗位。

如相機的發(fā)明雖然取代了大部分肖像畫家,但也創(chuàng)造了攝影師,還開辟了電影和電視這樣的全新產(chǎn)業(yè)。

5 年后再回看的話,反對 AI 就像現(xiàn)在反對 Photoshop 一樣奇怪,AI 只不過是另一個工具。

Jeffries 稱未來是環(huán)境人工智能(Ambient AI)的時代,各個行業(yè)、各個領域都會在人工智能的加持下進行發(fā)展。

不過現(xiàn)在我們需要的是一個更開放的人工智能環(huán)境,也就是說:開源!

最后,如果你現(xiàn)在就想玩一下 AI 生成視頻的話,可以先到 HuggingFace 上試試清華與智源實驗室的 Cogvideo。

Imagen:

https://imagen.research.google/video/

Phenaki:

https://phenaki.github.io

Cogvideo 試玩:

https://huggingface.co/spaces/THUDM/CogVideo

參考鏈接:

  • [1]https://twitter.com/sundarpichai/status/1578162216335179778

  • [2]https://twitter.com/hojonathanho/status/1577713864812236817

  • [3]https://news.ycombinator.com/item?id=33098704

  • [4]https://danieljeffries.substack.com/p/the-turning-point-for-truly-open

本文來自微信公眾號:量子位 (ID:QbitAI),作者:夢晨、Pine

廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:谷歌,AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知