其实,这篇文章的摘要很好地总结了整体的思路。总共四句话,十分简明扼要。
我们来翻译一下论文的摘要。
第一句:This paper develops new deep learning methods, namely, deep residual shrinkage networks, to improve the feature learning ability from highly noised vibration signals and achieve a high fault diagnosing accuracy.
翻译:本文提出了新的深度学习方法,即深度残差收缩网络,来提高深度学习算法从强噪声信号中学习特征的能力,并且取得较高的故障诊断准确率。
解释:不仅明确了所提出的方法(深度残差收缩网络),而且指出了面向的信号类型(强噪声信号)。
第二句:Soft thresholding is inserted as nonlinear transformation layers into the deep architectures to eliminate unimportant features.
翻译:软阈值化作为非线性层,嵌入到深度神经网络之中,以消除不重要的特征。
解释:深度残差收缩网络是ResNet的改进。这里解释了深度残差收缩网络与ResNet的第一点不同之处——引入了软阈值化。
第三句:Moreover, considering that it is generally challenging to set proper values for the thresholds, the developed deep residual shrinkage networks integrate a few specialized neural networks as trainable modules to automatically determine the thresholds, so that professional expertise on signal processing is not required.
翻译:更进一步地,考虑到软阈值化中的阈值是难以设定的,本文所提出的深度残差收缩网络,采用了一个子网络,来自动地设置这些阈值,从而避免了信号处理领域的专业知识。
解释:这句话点明了本文的核心贡献。本文不仅在网络模型中引入了软阈值化,而且给出了自动设置阈值的方式(事实上是提出了一种注意力机制下自动设置阈值的方式)。
第四句:The efficacy of the developed methods is validated through experiments with various types of noise.
翻译:该方法的有效性通过不同噪声下的实验得到了验证。
解释:实验验证部分考虑了不同种类噪声的影响。
总结:深度残差收缩网络 = 深度残差网络 + 软阈值化 + 注意力机制下的自动阈值设置。
前一篇的内容:
深度残差收缩网络:(一)背景知识
https://segmentfault.com/a/11...
原文链接:
M. Zhao, S. Zhong, X. Fu, B. Tang, and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.2943898
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。