最近的深度卷积神经网络(CNN)的成功取决于学习隐藏的表示,这些表示可以总结数据背后变化的重要因素。在这项工作中,我们描述了Network Dissection,这是一种通过为各个单元提供有意义的标签来解释网络的方法。

所提出的方法通过评估各个隐藏单元和视觉语义概念之间的对齐来量化 CNN 表示的可解释性。通过识别最佳对齐,单元被赋予可解释的标签,范围包括颜色,材料,纹理,部件,对象和场景。该方法揭示了深度表示比在随机等效强大的基础上更加透明和可解释。

图片描述

新闻来源:IEEE Xplore


思否编辑部
4.4k 声望117k 粉丝

思否编辑部官方账号,欢迎私信投稿、提供线索、沟通反馈。


引用和评论

0 条评论