字节和浙大联合研发的项目Loopy火了!
只需一帧图像,一段音频,就能生成一段非常自然的视频!
研究团队还放出了Loopy和同类应用的对比视频:
网友下场齐夸夸:
Loopy背后的技术有点牛哦!感觉互动媒体有新未来了!
前途无量奥!
真这么牛?咱们一起来看一下!
Loopy的生成效果
研究团队放出了一些DEMO视频,内容脑洞跨度有点大!
比如让小李子唱《黑神话》灵吉菩萨的陕北说书(高音时还会皱眉):
<video class="wp-video-shortcode" id="video-190517-1" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/SaveTwitter.Net_IPwY8YYi_PWWRurF_512p.mp4?_=1">http://www.qbitai.com/wp-cont...</video>
让兵马俑满口英伦腔:
<video class="wp-video-shortcode" id="video-190517-2" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/SaveTwitter.Net_5odLTTe1YciiYssw_512p.mp4?_=2">http://www.qbitai.com/wp-cont...</video>
蒙娜丽莎张口说话:
<video class="wp-video-shortcode" id="video-190517-3" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/SaveTwitter.Net_kZBBVFr-mrb8DhsG_512p.mp4?_=3">http://www.qbitai.com/wp-cont...</video>
梅梅自带Bgm说古装台词(甚至还有挑眉的小动作):
<video class="wp-video-shortcode" id="video-190517-4" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/SaveTwitter.Net_1X-M4dSUhgnkX4AF_512p-1.mp4?_=4">http://www.qbitai.com/wp-cont...</video>
狼叔的侧颜照也难不倒它:
<video class="wp-video-shortcode" id="video-190517-5" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/%E4%BE%A7%E8%84%B8%E7%94%B7%E6%98%9F.mp4?_=5">http://www.qbitai.com/wp-cont...侧脸男星.mp4</video>
叹息声的细节也能处理得很好:
<video class="wp-video-shortcode" id="video-190517-6" width="512" height="442" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/%E5%8F%B9%E6%81%AF%E5%A3%B0%E9%9F%B3.mp4?_=6">http://www.qbitai.com/wp-cont...叹息声音.mp4</video>
真人肖像的效果也很自然(甚至说话时眼睛还会顺势看向其他方向):
<video class="wp-video-shortcode" id="video-190517-7" width="512" height="512" preload="metadata" controls="controls"><source type="video/mp4" src="http://www.qbitai.com/wp-content/uploads/2024/09/%E7%9C%9F%E4%BA%BA%E5%A4%A7%E5%A7%A8.mp4?_=7">http://www.qbitai.com/wp-cont...真人大姨.mp4</video>
Loopy如何“告别割裂感”?
看完这些毫无违和感DEMO视频,咱们来研究一下Loopy是如何生成这类视频的:
总的来说,Loopy是一个端到端的音频驱动视频生成模型。
它的框架可以由四部分构成,分别是:
ReferenceNet:一个额外的网络模块,它复制了原始SD U-Net的结构,以参考图像的潜在表示作为输入,来提取参考图像的特征。
DenoisingNet:一个去噪的U-Net,负责从噪声输入生成最终的视频帧。
在DenoisingNet的空间注意力层中,ReferenceNet提取的参考图像特征会与DenoisingNet的特征在token维度上进行拼接。
这样做是为了让DenoisingNet能够选择性地吸收ReferenceNet中与当前特征相关的图像信息,从而在生成过程中保持图像的视觉一致性。
简单来说,通过结合这两个网络的特征,DenoisingNet能够更好地利用参考图像的细节,提升生成结果的质量和连贯性。
Apperance:Loopy的外观模块,主要接收参考图像和运动帧图像,然后将它们压缩成特殊的数字编码(潜在向量)。
运动帧的潜在向量经过“时间序列模块”处理,与参考图像的潜在向量拼在一起。这样就融合了参考信息和动作信息。
然后将拼接后的潜在向量输入ReferenceNet模块中,生成一张特征图,标注着重要的视觉信息,方便供后续去噪模块使用。
Audio:Loopy的音频模块。模型先是使用Wav2Vec网络提取音频特征,并将每层的特征连接起来,形成多尺度音频特征。
然后对于每一帧视频,将前两帧和后两帧的音频特征连接,形成一个包含5帧音频特征的序列,作为当前帧的音频信息。
最后在每个残差块中,使用“交叉注意力”机制,将音频特征与视觉特征结合,计算出一个关注的音频特征,并将其与视觉特征相加,生成新的特征。
值得一提的是,模型中也涉及到了一个Audio2Latent模块,这个模块可以将音频信息映射到共享的运动潜在空间,进一步帮助模型理解音频与视频中人物动作之间的关系。
研究团队的实验结果如下:
One more thing
值得一提的是,在Loopy之前,字节和浙大就已经联合研发出了一款类似的项目CyberHost。
但与Loopy不同的是,CyberHost是一个端到端音频驱动的人类动画模型。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。