7 月 2 日凌晨,著名生成式 AI 平台 Runway 在官网宣布,其文生视频模型 Gen-3 Alpha 向所有用户开放使用。而就在上周,Runway 才宣布 Gen-3 Alpha 向部分用户开启测试,短短几天内便全面开放,其速度之快令人惊喜。用户只需要登录 Runway 官网,点击“Get Started”就能够开启体验了。
与上个版本的 Gen-2 相比,Gen-3 Alpha 具有更加强大的功能:
精细动作控制:能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。
逼真人物生成:能够生成具有自然动作、表情和情感的逼真人类角色。
多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。
先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。
Gen-3 在图像的真实性、场景的连贯性以及动态表现上都实现了显著的飞跃,进一步推动了构建一个全面的通用世界模型(General World Models,简称 GWMs)的进程。
根据官方的说明,生成一个视频需要以下几个步骤:
用户首先需要输入一个简单的提示词,如“瀑布”,然后添加修饰词语来影响视频的风格、构图和整体情绪;
制作文本提示后,选择视频的时长(最长 10 秒),然后点击“生成”;
生成视频后,用户可尝试用固定的种子编号来获得一致的样式,或者调整文本提示,产生不同的结果。(当提示词遵循清晰的结构,划分为“场景”、“主体”、“相机移动方式”时,提示最有效。)
网友们用 Gen-3 制作的视频,无论是美食介绍、微电影宣传,还是人与自然的创意短片,每一个画面都充满了饱和度、光影效果、动作一致性和连贯性。这得益于 Gen-3 的物理模拟功能,它能够让生成的内容严格遵守现实世界的特点。有网友表示,Gen-3 生成速度非常快,10 秒的视频大概只用了一分半就能跑出来,比十几分钟才能生成的 Luma 体验感好多了。
效果演示:
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
不过,也有网友实测发现,虽然 Gen-3 功能强大,但其生成的视频有些还是存在明显 bug。以写实风格为例,人物特写和风景最稳,但是一旦涉及到全景或者中景,当人物没有足够的面积空间时,肢体变形就极为严重。但总体来说,视频的氛围和质感还是很到位的。
对于 Runway 如此迅速地开放 Gen-3 使用权限,网友们纷纷表示兴奋,甚至有人认为它已经超越了 Sora。毕竟,Sora 从首次展示到现在已经有 4 个多月了,还在邀请测试阶段,而 Gen-3 的全面开放,无疑是给创意工作者们的一剂强心针。
Runway 的创意总监也表示:“Runway 创造了历史,将再次改变文生视频赛道。”
不过,比较遗憾的是,这次 Gen-3 并没有像前两代和 Luma 那样免费提供试用,大概是因为算力的问题限流,每个月最少 12 美元才能使用。对此,有网友表示,虽然 RunwayGen-3 实力很强,但依然不得不承认,对于普通爱好者来说,完全免费的可灵更加具有吸引力。
参考链接:
https://runwayml.com/blog/introducing-gen-3-alpha/
评论