点赞 + 关注 + 收藏 = 学会了
Runway 最近发布了全新的 Gen-3 Alpha 模型,为AI生成视频带来了革命性的进步。但是,这款令人期待的模型和 Sora 一样都是“期货”,目前还无法立即使用,官方只展示了部分demo。
先感受一下。Gen-3 Alpha 的实力。
提示词:Subtle reflections of a woman on the window of a train moving at hyper-speed in a Japanese city.
视频的图像质量相当高,细节处理非常到位。人物皮肤该有的纹理都有,眼神中传递出孤独和沉思的感情。窗外城市景观的色彩变化丰富,霓虹灯光、城市灯火在快速移动的列车窗户上闪烁,尤其是人物脸上对光的反射变化微妙,随着列车的加速,光影效果流畅且自然。
换种风格看看。
提示词:A wide symmetrical shot of a painting in a museum. The camera zooms in close to the painting.
来个微距效果。
提示词:An extreme close-up shot of an ant emerging from its nest. The camera pulls back revealing a neighborhood beyond the hill.
虽然现在还无法使用 Gen-3 Alpha,但我们可以白嫖 Gen-2。
首先打开Runway的官网 https://runwayml.com/,点击右上角的登录。
接着点击首页的“Learn More”按钮,进入另一个页面,根据你的需求选择相应的功能。
我这里演示选择了“Text/Image to Video”。
如果你需要图生视频就上传一张图片然后输入对应的提示词。
我选择文生视频,所以只输入了提示词:A small dog ran out of a lava vortex
。
然后点击 Generate 4s
按钮,等待片刻就生成一个4秒的视频。
Runway 的 Gen-3 Alpha 模型尽管还处于“期货”状态,但它展示的强大功能和创新潜力已经引起了广泛关注。在 Gen-3 Alpha 模型正式开放使用之前,用户可以通过使用 Gen-2 模型,提前体验AI生成视频的魅力。
点赞 + 关注 + 收藏 = 学会了
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。