摘要: 循环自动编码器 如果要为序列构建自动编码器,例如时间序列和文本(例如,用于无监督学习或降维),那么递归神经元可能比密集网络更合适。构建循环自动编码器非常简单直接:编码器通常是序列到向量的RNN,它将输入序列压缩为单个向量。解码器是向量到序列RNN,做相反的处理: from tensorflow im 阅读全文
posted @ 2022-01-06 18:48 里列昂遗失的记事本 阅读(371) 评论(0) 推荐(0) 编辑
摘要: 卷积自动编码器 如果要处理图像,目前为止的自动编码器都无法很好的工作(除非图像非常小),卷积神经网络比密集网络更适合处理图像。如果要为图像构建自动编码器(例如,用于无监督预训练或降维),则需要构建卷积自动编码器。编码器是由卷积层和池化层组成的常规CNN。它通常会减小输入的空间尺寸(即高度和宽度),同 阅读全文
posted @ 2022-01-06 18:32 里列昂遗失的记事本 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 堆叠式自动编码器 自动编码器可以具有多个隐藏层。在这种情况下,它们被称为堆叠式自动编码器(或深度自动编码器)。添加更多的层有助于自动编码器学习更多的复杂的编码。就是说,要注意不要使自动编码器过于强大。想象一个强大的编码器,它只是学会了把每个输入映射到单个任意数字(而解码器则学习反向映射)。显然这样的 阅读全文
posted @ 2022-01-06 18:16 里列昂遗失的记事本 阅读(1987) 评论(0) 推荐(0) 编辑