yc_9527

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

  其实,这篇文章的摘要很好地总结了整体的思路。一共四句话,非常简明扼要。

  我们首先来翻译一下论文的摘要:

  

  第一句:This paper develops new deep learning methods, namely, deep residual shrinkage networks, to improve the feature learning ability from highly noised vibration signals and achieve a high fault diagnosing accuracy.

  翻译:本文提出了新的深度学习方法,即深度残差收缩网络,来提高深度学习算法从强噪声信号中学习特征的能力,并且取得较高的故障诊断准确率。

  解释:不仅明确了所提出的方法(深度残差收缩网络),而且指出了面向的信号类型(强噪声信号)。

  

  第二句:Soft thresholding is inserted as nonlinear transformation layers into the deep architectures to eliminate unimportant features.

  翻译:软阈值化作为非线性层,嵌入到深度神经网络之中,以消除不重要的特征。

  解释:深度残差收缩网络是ResNet的改进。这里解释了深度残差收缩网络与ResNet的第一点不同之处——引入了软阈值化。

  

  第三句:Moreover, considering that it is generally challenging to set proper values for the thresholds, the developed deep residual shrinkage networks integrate a few specialized neural networks as trainable modules to automatically determine the thresholds, so that professional expertise on signal processing is not required.

  翻译:更进一步地,考虑到软阈值化中的阈值是难以设定的,本文所提出的深度残差收缩网络,采用了一个子网络,来自动地设置这些阈值,从而避免了信号处理领域的专业知识。

  解释:这句话点明了本文的核心贡献。本文不仅在网络模型中引入了软阈值化,而且给出了自动设置阈值的方式。

  

  第四句:The efficacy of the developed methods is validated through experiments with various types of noise.

  翻译:该方法的有效性通过不同噪声下的实验得到了验证。

  解释:实验验证部分考虑了不同种类噪声的影响。

 

  总结:深度残差收缩网络=ResNet+软阈值化+自动设置阈值。

 

  上一篇的内容:

  深度残差收缩网络:(一)背景知识 https://www.cnblogs.com/yc-9527/p/11598844.html

  原文的链接:

  M. Zhao, S. Zhong, X. Fu, B. Tang, and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.2943898

  https://ieeexplore.ieee.org/document/8850096

posted on 2019-09-28 11:03  yc_9527  阅读(2794)  评论(0编辑  收藏  举报