MuseV 是在 2024年3月由腾讯音乐娱乐的天琴实验室开源的虚拟人视频生成框架,专注于生成高质量的虚拟人视须和口型同步。它利用先进的算法,能够制作出具有高度一致性和自然表情的长视频内容。其可与已经发布的 MuseTalk 结合使用可以构建完整的「虚拟人方案」。
使用云平台:OpenBayes
http://openbayes.com/console/signup?r=sony_0m6v
新用户使用上面链接注册可获得免费 RTX 4090 使用时长。
登录到 OpenBayes 平台后,打开「公共教程」,找到「MuseV 不限时长的虚拟人视频生成 Demo」教程。
点击教程右上角的「克隆」,将教程克隆到我们自己的容器内。
平台在克隆过程中会自动为容器绑定所需文件,我们点击「下一步:选择算力」即可。
可以看到平台已经默认选配好了教程所需要的算力资源和镜像版本,点击「下一步:审核」。
确认好镜像、资源、版本号都没有问题后,点击「继续执行」。
等待系统分配资源完成后,已经完成实名认证的用户可以将鼠标悬停在 API 地址,出现网址之后点击进入。
可以看到项目下方提供了一些测试用例,我们选择一个进行测试。
设置好一些基础配置后,点击 Generate 生成。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。