摘要: B = prod(A)将A矩阵不同维的元素的乘积返回到矩阵B。如果A是向量,prod(A)返回A向量的乘积。如果A是矩阵,prod(A)返回A每一列元素的乘积并组成一个行向量B。B = prod(A,dim)沿着指定的dim标量的维计算A矩阵的乘积。注:dim=2表示沿行计算行的乘积,结果组成一个列向量。dim=1表示沿列计算列的乘积,结果组成一个行向量。A = 1 2 3 4 5 6 7 8prod(A)ans =5 12 21 32prod(A,2)ans = 24 1680prod(A,1)ans =5 12 21 32 阅读全文
posted @ 2014-02-19 11:58 Providence 阅读(2514) 评论(0) 推荐(0) 编辑
摘要: 如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。具体过程简单的说明如下:1)给定无标签数据,用非监督学习学习特征:在我们之前的神经网络中,如第一个图,我们输入的样本是有标签的,即(input, target),这样我们根据当前输出和target(label)之间的差去改变前面各层的参数,直到收敛。但现在我们只 阅读全文
posted @ 2014-02-19 09:32 Providence 阅读(9961) 评论(1) 推荐(1) 编辑