摘要:
diag(A)这个看似简单的函数确认让我头疼了几个小时该函数其实有两个作用① 如果A是一个矩阵,那么diag(A)的作用便是提取A的对角线元素② 如果A是一个向量,那么diag(A)的作用便是生成一个以A中元素对对角线元素的对角矩阵例如:或者确实很神奇啊,使用中一定要注意,双方面作用 阅读全文
摘要:
六 逻辑回归(Logistic Regression:LR) 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就是由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。6.1 分类问题(Classif... 阅读全文
摘要:
这里所谓的自学习,其实就是利用稀疏自编码器对无标签样本学习其特征该自学习程序包括两部分:稀疏自编码器学习图像特征(实现自学习)---用到无标签的样本集softmax回归对样本分类---用到有标签的训练样本集准备工作下载Yann Lecun的MNIST数据集,本程序用到了如下的两个数据集:第0步:设置... 阅读全文
摘要:
Exercise:PCA and Whitening第0步:数据准备UFLDL下载的文件中,包含数据集IMAGES_RAW,它是一个512*512*10的矩阵,也就是10幅512*512的图像(a)载入数据利用sampleIMAGESRAW函数,从IMAGES_RAW中提取numPatches个图像... 阅读全文
摘要:
ctrl+shift+d:控制窗口嵌入还是非嵌入 阅读全文
摘要:
bsxfun(fun,A,B)偶然间发现了这个函数,强大得不得了呀,它的作用是:对两个矩阵A和B之间的每一个元素进行指定的计算(函数fun指定);并且具有自动扩维的作用例如,A是一个4*3的矩阵,B是一个4*1的列向量,如果想要矩阵A的每一列都对向量B进行一些操作,比如,A的每一列的相应元素都要除以... 阅读全文
摘要:
本笔记为Coursera在线课程《Machine Learning》中的数据降维章节的笔记。十四、降维 (Dimensionality Reduction) 14.1 动机一:数据压缩本小节主要介绍第二种无监督学习方法:dimensionality reduction,从而实现数据的压缩,这样不仅可... 阅读全文
摘要:
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。1前向传播1.1前向传播分别计算第l层神经元的输入和输出;1.1.1偏执项为1时向量整体形式:分量形式: 1.1.2偏执项... 阅读全文
摘要:
下面,将UFLDL教程中的sparseae_exercise练习中的各函数及注释列举如下首先,给出各函数的调用关系主函数:train.m(1)调用sampleIMAGES函数从已知图像中扣取多个图像块儿(2)调用display_network函数,以网格的形式,随机显示多个扣取的图像块儿(3)梯度校... 阅读全文
摘要:
最近在学习卷积神经网络,哎,真的是一头雾水!最后决定从阅读CNN程序下手! 程序来源于GitHub的DeepLearnToolbox 由于确实缺乏理论基础,所以,先从程序的数据流入手,虽然对高手来讲,这样有点太小儿科了,但觉得对于个人理解CNN网络的结构和数据流走向有较大帮助! 下面,将要分析CNN 阅读全文