头图

Wan 2.1(通义万相 2.1)是由阿里巴巴于 2025 年开源的视频生成大模型,它在视频生成领域展现出了卓越的性能。在功能上,该模型不仅支持文生视频和图生视频,还能进行视频编辑、文生图、视频生音频等多种创新应用,极大丰富了用户的创作选择。而且,Wan 2.1 是首个能在中英文环境中实现文字生成的视频模型,免去外部插件的繁琐,大幅提升了其实用性。

Wan 2.1 采用了自研的高效变分自编码器 (VAE) 和动态图变换器 (DiT) 架构,这种创新的设计使得模型能够更准确地捕捉和模拟现实世界的动态变化。同时,通过参数共享机制,Wan 2.1 降低了训练成本,提高了生成效率。

教程链接:https://go.openbayes.com/U662L

使用云平台:OpenBayes
http://openbayes.com/console/signup?r=sony_0m6v

登录 http://OpenBayes.com,在「公共教程」页面,选择键部署 「Wan 2.1 文-图生视频双杀 Demo」教程。

图片

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

图片

选择「NVIDIA RTX A6000」以及「vLLM」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!

图片

图片

该模型支持文生视频和图生视频,下面一一为大家介绍。

1.文生视频

待系统分配好资源,当状态变为「运行中」后,访问模型给出的连接「https://sony-text2v.gear-c1.openbayes.net/」,进入文生视频 Demo 界面。

图片

图片

我们在「Prompts」中输入一段文字描述,在「Resolution」处选择输出尺寸,根据自己需求设置好帧数和推理步数,最后点击「Generate」生成。

*Prompts:一只巨大的橙色章鱼正躺在海底休息,与周围沙石质地的海底地形融为一体。它的触手伸展开来,环绕在身体周围,眼睛闭着。章鱼并未察觉到一只帝王蟹正从一块岩石后面爬向它,蟹的钳子高高举起,准备发动攻击。这只蟹呈棕色,带刺,有长长的腿和触须。场景以广角镜头拍摄,展现了海洋的广阔与深邃。海水清澈湛蓝,阳光透过水面洒下道道光束。画面清晰锐利,具有高动态范围。章鱼和蟹是画面的焦点,而背景则略微模糊,营造出景深效果。

图片

2.图生视频

待系统分配好资源,当状态变为「运行中」后,访问模型给出的连接「https://sony-img2v.gear-c1.openbayes.net/」,进入图生视频 Demo 界面。

图片

图片

我们上传一张图片,在「Prompts」中输入一段文字描述,设置好分辨率、帧率、推理步数,最后点击「Generate」生成。

图片


小白狮ww
1 声望0 粉丝