Meta宣布推出名为Movie Ge
Meta宣布已建立了一个名为Movie Gen的新AI模型,该模型可以根据用户提示创建逼真的视频和音频剪辑,并声称可以与OpenAI和ElevenLabs等领先媒体生成式AI初创公司的工具相媲美。
Meta提供的Movie Gen创作样本包括动物游泳和冲浪视频,以及使用真实照片来描绘在画布上绘画等动作的视频。
Meta一篇博文表示,Movie Gen还可以生成与视频内容同步的背景音乐和音效,并使用该工具编辑现有视频。
在其中一个视频中,Meta使用工具将绒球放入到一位独自在沙漠中奔跑的男子手中;而在另一段视频中,它将一位男子正在玩滑板的停车场从干燥的地面变成了水花飞溅的水坑。
Meta表示,Movie Gen制作的视频最长可达16秒,音频最长可达45秒。该公司分享的盲测数据显示,该模型的表现优于Runway、OpenAI、ElevenLabs和Kling等公司的产品。
好莱坞一直在致力于研究如何采用生成式AI视频技术,OpenAI今年2月展示了其产品Sora 如何根据文本提示制作类似电影的视频。
娱乐行业的技术人员渴望使用此类工具来增强和加快电影制作,而其他人则担心采用似乎未经许可就接受版权作品训练的系统。
Meta发言人表示,公司不太可能像其Llama系列大型语言模型那样将Movie Gen公开供开发者使用,并表示会单独考虑每种模型的风险。
相反,Meta正直接与娱乐界和其他内容创作者合作使用Movie Gen,并将在明年某个时候将其整合到Meta产品中。
根据Meta发布的有关该工具的博文和研究论文,Meta基于许可和公开可用的数据集来构建Movie Gen。