哪吒又双叒叕破纪录了!

电影《哪吒之魔童降世》自 7 月 26 日上映以来,一直在刷新动画电影的票房纪录。截止 13 日,19 天里全网票房突破 36 亿,观影人数超过 1 亿!成为了首部观影人数破亿的动画电影。

图片描述
哪吒之前,国内的动画电影票房最高记录是 15 亿

在票房疯长的背后,它在豆瓣的评分也维持在 8.6 分,不少人开始感慨:中国动画的里程碑来了。

这样一部改编自神话故事的电影,凭什么像国漫界的一匹黑马,收获如此高的票房呢?

图片描述

我哪吒是靠颜值收获的这么一大波粉丝吗

除了颠覆的人物设置,全新的故事设定,为观众带来惊喜之外,精致的视觉效果,更是《哪吒》如此炸裂的关键。这些酷炫的视觉效果,让一个又丧又皮的「魔化」哪吒,成了这个夏天最「靓」的仔。

险些让哪吒难产的动画制作

观众被这个最「靓」的仔深深吸引之时,不会想到,他曾险些遭遇难产。

每部爆款电影的背后,都离不开主创团队的细心打磨,而繁琐的程序,往往让制作时间拉得很长,甚至会有作品熬不下去,中途夭折。

《哪吒》的制作过程也同样不易,但所幸,历时五年之久,最终总算是被「死磕」出来了。

这部时长 110 分钟的动画电影,共经历了 66 次剧本修改,有 20 多个专业外包团队,1600 多位动画制作人员参与制作,全片共有 1400 多个特效镜头。

由此可见,一部优秀的动画,注定是一项浩大的工程。不少从业人员都吐槽过,动画制作完全是个「苦力活」。在导演的采访资料里,也爆出了因工作繁重,外包团队离职率陡增的情形。

大量人物形象制作,分镜动画绘制,以及特效的制作,都是费时耗力的过程。短短十几秒画面,可能就需要几个团队几个月的努力。

图片描述
丑萌的哪吒魔化后帅炸

尽管团队投入大量精力,但仍然有很多问题不是能仅靠死磕就可以解决的。比如片中灵珠和魔丸结合时,导演本想营造时光倒退,万物归一的视觉效果。但该镜头在经过几个月的尝试后,终因达不到预期而被舍弃。

类似这样的制作难题,是限制动画发展的一大因素。倘若制作流程能够更加高效,或许就会涌现更多的优质电影。而这个方面,人工智能技术能给动画行业带来新的契机。

解放原画师:AI 线稿上色

动画的制作过程中,基本的环节就是完成画稿的绘制,而对这些画稿完成上色,则是一项浩大的工程。

值得一提的是,哪吒的形象前后设计了 100 多个版本

对于普通的 12 帧率动画,按 25 分钟计算,需要 18000 张图画。对于一个 10 人的团队来说,约需要 2 个月才能完成。

但基于 AI 的工具,效率会得到极大的提升。比如当下最优秀的技术,完成一集动画仅需 2.5 小时,效率提升达到了 2000 倍之多。

最近在 GitHub 上星数过万的 Style2paints ,就是这样一个充满魔力的绘制工具。通过它,制作人员能够快速完成复杂的上色流程。

图片描述
有四个步骤:从线稿开始,右上角上平面颜色

左下角加入有梯度的颜色,右下角加入阴影

Style2paints 由苏州大学和香港中文大学的研究者共同打造,最新版本已升级到 V4。它也被评为最好的线稿上色 AI 工具。

Style2paints 基于无监督的深度学习,通过风格迁移和 GAN 技术,将线稿原画变成饱满的彩色图画。

整个过程分为两个阶段,第一阶段将草图渲染为粗略的彩色图画。为完善画面,第二阶段会识别其错误并进行细化,以获得最终结果。

而使用起来也很简单,只需画师完成线稿,然后通过鼠标点击,就能得到饱满的彩色画稿。对于要求高的画师,可能还需要些许的微调。

图片描述
GitHub 上的操作指南

解放动画师:神经网络自动补帧

动画电影的制作中,有关键帧和中间帧之分,中间帧是串在两个关键帧之间的画面,起到衔接和让画面流畅的作用,但其制作却是动画中耗时严重的过程。

图片描述
深色的三个动作是关键帧,浅色的是中间帧

如果给出一段视频的相邻的关键帧,让 AI 去补充出中间的画面,工作量就会大大减少。

谷歌 AI 前段时间公布的生成模型,就是按照这个思路,在一定程度上解决了问题。

图片描述
模型示意图

他们发布的这套 AI 系统,包含一个完全卷积模型,由 2D 卷积图像解码器,3D 卷积潜在表示生成器,和视频生成器组成。

通过将图像解码,除了将输入视频信息解码,还将目标视频的信息映射到潜在空间。而潜在表示生成器将两种信息合并,最后由视频生成器解码达到预测的中间帧。

AI 生成的视频帧序列,在风格上与给定的起始帧和结束帧保持一致,而且整体看起来很顺滑。令人惊喜的是,此方法可以较长的时间段内实现视频生成。

图片描述

使用 Kinetics 数据集从静态图像创建出的视频

在他们的研究中,一些视频的生产效果喜人,但也有一些复杂的视频,出现了奇怪的画面,仍待改进。

解放导演:文本生成动画

当然最惊喜的功能,也许要数 AI 直接从剧本生成动画。那些无法做出来的场景效果, 也许在 AI 手中,会得到解答。

在前段时间,迪士尼和罗格斯大学的科学家发表了一篇论文,介绍了一款用文本描述生成动画场景的 AI 模型。

要让 AI 实现从文本到视频的生成,需要其「理解」文本,然后生成对应的动画。为此他们采用了多个模块组件的神经网络。

这个模型包含三个部分,一是脚本解析模块,自动将剧本文本中的场景解析出来,然后是自然语言处理模块,能够提取出主要描述句子,并提炼出动作表示,最后是一个生成模块,将动作指令转化成动画序列。

图片描述
模型的流程示意

研究人员,从可自由获取的电影剧本中,搜集了上千个剧本,从中选取了其中的 996 个,编写了场景描述语料库。

这个语料库由 525,708 个描述组成,包含 1,402,864 个句子,其中 920,817 个包含有至少一个动作。

建立起描述和视频的映射,从而通过输入剧本,能够生成简单的动画片段。在测试实验中,生成动画的合理性为 68%。

虽然该系统还依赖于语料库,不能百分百完成文本到视频的生成,但在动画制作上带来了新的方向。

图片描述
迪士尼还研究过自动生成与语音相匹配的动画口型

AI 颠覆动画的路还有多远

《哪吒》的火爆,让人们再次注意到了动画电影的潜力,而这部打破传统的电影,还在向着它的新纪录奔去。

虽然说 AI 技术在动画制作上有了一些良好的尝试,但这些技术只有更趋完善和成熟,才能真正被电影制作人所利用。

期待未来技术的发展,让我们不需要等待漫长的五年,就能看到更多《哪吒》这样的经典之作。

—— 完 ——


超神经HyperAI
1.3k 声望8.8k 粉丝