技术编辑:宗恩丨发自 SiFou Office
SegmentFault 思否报道丨公众号:SegmentFault
来自外媒消息 Facebook 公布了第一届 Deepfake 检测挑战赛的结果 ,这是一场寻找能够发现人工智能操纵视频的算法的公开竞赛。虽然结果显示通过算法找到人工智能操纵的视频这件事很有希望,但距离真正应用还有一段距离。
Facebook 还表示,竞赛中获胜的算法能够发现「具有挑战性的真实示例」深层仿制品,平均准确率为65.18%。来自 Facebook 的首席技术官 Mike Schroepfer 也表示:「他对挑战赛的结果很满意,这将为研究人员建立一个基准,并指导他们未来的工作。」
在即将到来的 2020 年美国总统大选上, Deepfakes 可能会被用于「政治误导」,这些寻找人工智能操纵视频的算法也将迎来黄金时刻。
约有 2114 名参赛者向比赛提交了 35000 多个检测算法。测试他们从约 10 万个短片的数据集中识别深层假视频的能力。Facebook 雇佣了 3000 多名演员来制作在自然环境中进行对话视频。其中有些片段是通过人工智能操纵让其他演员的脸贴到他们的视频上。
↑挑战中的实例
研究人员被允许访用这些数据来训练他们的算法,当对这些材料进行测试时,准确率可以高达 82.56%。然而,当同样的算法对由未见过的镜头组成的 「黑盒] 数据集进行测试时,它们的表现要差得多,得分最好的模型的准确率为65.18%。
Schroepfer 表示本次挑战赛的获胜算法将作为开源代码发布,以帮助其他研究人员,但Facebook 也表示,将对自己的检测技术保密,以防止其被反向工程。
第一名被优势方案被取消成绩惹争议
在这场比赛中,原本排名第一的团队因为数据的原因,优势方案被取消成绩,最终他们的第二方案获得了第七名。
简单来说这个团队使用了非比赛官方的视频用于判断算法的准确性,在与官方的沟通中团队得知他们违法了「获胜作品提交文档」的规定,团队被 Facebook 官方要求提供出现在外部数据集中的每个人的附加许可。
这显然是不可能的,这些数据来自公共数据集,团队无法出示其中每一个人的具体书面许可,也无法识别这些人。最终经过多方沟通,由于团队没有故意破坏任何规则,因此会保留未使用任何外部数据的提交内容,而仅取消获胜的提交内容的资格。
今天,该团队对此事发表了一份声明,完整声明如下:
致 Kaggle、Facebook 托管团队和各位参赛者们:首先,我们要向 Kaggle 和 Facebook 托管团队表示感谢。感谢他们创建了这一数据集以及举办本次竞赛,并在此向所有最终获奖者表示祝贺。
我们想在这里进一步解释一下,关于我们的获胜解决方案无效的问题。以及我们第二方案在 LB 上的情况变动。
为了应对 Private LB 的激烈竞争,我们准备了两个解决方案,最终分别获得 0.42320 和 0.44531 的 Private LB 分数。对于在 Public LB 上得分更高的 0.44531 方案,我们仅使用了竞赛数据和 12 个模型的未加权均值:这是我们在 LB 上保持第七名位置的方案。对于我们最初的获奖方案(0.42320),我们将使用竞赛数据训练的 6 个模型和使用一些外部数据训练的 9 个模型混合在了一起。
AI 是把双刃剑
在这个 AI 技术高速发展的时代,AI 技术不仅能让人们过的更好,也能做一些「恶事」。
Deepfake 就是这样一个典型例子,由于可以改变视频中的人脸,这项技术可以很好的帮助影视制作团队制作视频,但也常被用于制作「假视频」或者「色情视频」当中,还有更严重的它甚至能通过改变视频操纵「政治导向」,所以本次 Facebook 举办的寻找人工智能操纵视频发现算法的比赛非常有意义。
虽然比赛出了一些问题,第一名因为数据问题被取消名次,但原因可能是因为第一届没有前车之鉴,许多规则尚不明确,Facebook 与参赛者也没有很好的沟通所导致。当然要求参赛队伍提交额外数据集里出现人物每个人肖像的授权许可是显示不合理的,也希望 Facebook 可以在今后的比赛中制定更加合理的规则。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。