11 2018 档案
摘要:之前的章节,我们利用一个仅包含一层隐藏层的简单神经网络就在MNIST识别问题上获得了98%左右的准确率。我们于是本能会想到用更多的隐藏层,构建更复杂的神经网络将会为我们带来更好的结果。 就如同在进行图像模式识别的时候 ,第一层的神经层可以学到边缘特征 ,第二层的可以学到更复杂的图形特征,例如三角形,
阅读全文
摘要:前言深度学习中的Attention,源自于人脑的注意力机制,当人的大脑接受到外部信息,如视觉信息、听觉信息时,往往不会对全部信息进行处理和理解,而只会将注意力集中在部分显著或者感兴趣的信息上,这样有助于滤除不重要的信息,而提升信息处理的效率。 最早将Attention利用在图像处理上的出发点是,希望
阅读全文