IT之家 11 月 23 日消息,視頻生成 AI 創(chuàng)企 RunwayML 今天推出了“Expand Video”新功能。用戶可通過(guò)輸入文本提示,在原始畫面基礎(chǔ)上生成額外內(nèi)容,靈活調(diào)整視頻比例,該系統(tǒng)能夠在擴(kuò)展畫面時(shí)保持視覺(jué)效果的統(tǒng)一性。
RunwayML 表示,借助多次擴(kuò)展,用戶可以實(shí)現(xiàn)如“crash zoom(快速變焦)”和“pull-back shot(拉遠(yuǎn)鏡頭)”等動(dòng)態(tài)攝像效果,將靜態(tài)畫面打造為具有電影感的動(dòng)態(tài)序列。據(jù)了解,“Expand Video”功能將率先逐步開放給 Gen-3 Alpha Turbo 用戶。
據(jù)IT之家此前報(bào)道,今年 6 月,Runway 發(fā)布了 Gen-3 Alpha 視頻生成模型。與其之前的旗艦視頻模型 Gen-2 相比,該模型在生成速度和保真度方面有了“重大”改進(jìn),并且對(duì)生成視頻的結(jié)構(gòu)、風(fēng)格和運(yùn)動(dòng)提供了細(xì)粒度的控制。Runway 聯(lián)合創(chuàng)始人 Anastasis Germanidis 表示,Gen-3 的視頻生成時(shí)間明顯快于 Gen-2。生成一個(gè) 5 秒的片段需要 45 秒,生成一個(gè) 10 秒的片段需要 90 秒。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。