IT之家 2 月 16 日消息,OpenAI 近日發(fā)布了 Sora 模型,可以根據用戶輸入的文本描述,生成一段視頻內容。
該模型可以深度模擬真實物理世界,標志著人工智能在理解真實世界場景并與之互動的能力方面實現(xiàn)了重大飛躍。
Sora 會嚴格根據用戶輸入的提示詞,可以制作長達一分鐘的視頻,保持較高的視覺質量。對于任何需要制作視頻的藝術家、電影制片人或學生來說,這都帶來了無限可能。
OpenAI 表示目前已交由 Team Red(網絡安全演習中扮演敵人或競爭對手角色的群體)測試 Sora,評估潛在的危害或風險。
此外 OpenAI 還邀請了一支專業(yè)的創(chuàng)意人士測試,用于反饋其在專業(yè)環(huán)境中的實用性。OpenAI 計劃根據這些反饋意見改進 Sora,確保它能有效滿足用戶的需求。演示視頻非常超現(xiàn)實。
Sora 可以創(chuàng)建包含多人、特定運動類型和詳細背景的復雜場景。它能生成準確反映用戶提示的視頻。例如,Sora 可以制作時尚女性走在霓虹閃爍的東京街頭的視頻、雪地里的巨型長毛象視頻,甚至是太空人冒險的電影預告片。
不過,Sora 也有局限性,包括在模擬復雜場景的物理特性和理解特定因果場景方面存在挑戰(zhàn)。OpenAI 表示,Sora 還可能會混淆空間細節(jié),并在精確描述時間事件方面遇到困難。
IT之家附上生成的演示視頻如下,更多視頻可以訪問原文網站:
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。