2 月 18 日消息,OpenAI 近日发布了 Sora 模型,可以根据用户输入的文本描述,生成一段视频内容,一经公布便引发网友热议。然而,Sora 的能力还不止于此。
当地时间周六 OpenAI 研究科学家比尔・皮布尔斯 (Bill Peebles) 在 X 上晒图,并表示“这是 Sora 一次性生成的视频样本,并不是我们把 5 个视频拼接在一起。Sora 决定同时拥有五个不同的视角!”
令人惊叹的是,这组图片展示了人们在下雪天漫步、玩雪的多个角度,并且均由 Sora 一次完成。这意味着该模型支持一次性生成多机位视频,短视频、电影行业或许会受到不小冲击。
传统视频拍摄通常需要人工撰写脚本再使用摄像机拍摄,通过多视角的剪辑,最终呈现出完整的视频片段。然而,未来也许只需要输入脚本信息,便可生成多角度多机位视频,再加上人工的剪辑,便可呈现一部完整的作品。
据此前报道,Sora 会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。对于任何需要制作视频的艺术家、电影制片人或学生来说,这都带来了无限可能。
Sora 可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。例如,Sora 可以制作时尚女性走在霓虹闪烁的东京街头的视频、雪地里的巨型长毛象视频,甚至是太空人冒险的电影预告片。
目前,OpenAI 尚未向公众开放 Sora。OpenAI 称,该模型正在接受测试,只分享给了一批精选的研究人员和学者。
相关阅读:
《OpenAI 王炸:新 Sora 模型一句话生成 1 分钟视频,效果接近实拍》