IT之家 3 月 19 日消息,科技媒體 WinBuzzer 昨日(3 月 18 日)發(fā)布博文,報道稱 Stability AI 發(fā)布了一款名為 Stable Virtual Camera 的人工智能模型,它能將靜態(tài)圖像轉(zhuǎn)化為沉浸式的 3D 視頻。
與傳統(tǒng)的 3D 動畫工具不同,該模型無需復(fù)雜的場景建模,利用 AI 驅(qū)動的擴散技術(shù),即可創(chuàng)造出逼真的相機運動和深度效果。該模型目前以研究許可的形式提供,標志著 AI 生成視頻能力的進一步擴展。
IT之家援引博文介紹,用戶只需要輸入 1 張圖片(最多可以 32 張),即可生成預(yù)設(shè)或自定義的相機運動效果。該工具提供 14 種預(yù)設(shè)運動路徑,包括 360°、8 字形、螺旋、滑軌變焦、移動、搖攝和翻滾等,并兼容正方形(1:1)、豎屏(9:16)和橫屏(16:9)等格式。
雖然 Stable Virtual Camera 功能強大,但也存在一些局限性。Stability AI 承認,該模型在處理復(fù)雜場景、不規(guī)則物體、水面、反射以及精細的人體細節(jié)時,可能會出現(xiàn)閃爍偽影和不一致的情況。
此外,目前該模型僅供研究使用,尚未開放商業(yè)應(yīng)用。代碼已在 GitHub 上開源,模型權(quán)重托管在 Hugging Face 上。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。