摘要:
神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili axon 英 [ˈæksɒn] 美 [ˈæksɑːn] n. 轴索,[解剖]轴突(神经细胞) telodendria 终端(树)突 nucleus 英 [ˈnjuːkliəs] 美 [ˈnuːkliəs] n. 原子核;细 阅读全文
摘要:
神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 阅读全文
摘要:
注解: 1.解决贡献度分配的一个很好的方法是:神经网络。 注解: 1.很多的深度学习都是端到端的学习。 注解: 1.自变量x可能是我们人抽取的已经包含高层语义的特征。 2.为什么f1(x)是非线性函数,因为假如是线性,嵌套再多层,还是线性。 阅读全文
摘要:
注解: 1.建立一个从像素到语义的映射其实是很困难的。 注解: 1.一般性,指的是泛化能力。 注解: 1.one-hot编码,也叫独热编码。 2.局部表示:一个4维向量,每个独立的维度都表示一个语义。如[1 0 0 0]表示A。 3.分布式表示:两个维度合起来共同表示一个语义,如[0.25,0.5] 阅读全文
摘要:
注解: 1.写个程序实现区分左右两个区域的三角形,规则人可以看出来,即:左边都是直角三角形。 2.有的规则人不容易看出来。 注解: 1.声音识别,通过人类的思考,规则是很难找到的。即很难通过写一个程序,去做声音识别,因为规则不知道。 2.数字识别也是,很难找到2这个数字的规律。 3.怎么办?答:通过 阅读全文
摘要:
阅读全文
摘要:
注解: 1.在一个复杂系统中,每个模块对最终做出的决策的贡献是多少。 2.现在深度学习主要的模型是神经网络。 注解: 1.概率图模型:试图以概率问题去建模各式各样的问题。 注解: 1.逻辑回归和softmax回归在后面的5个非线性分类器中能用到。 注解: 1.github上有配套练习的答案,有些是网 阅读全文
摘要:
注解: 1.统计学习指的是:统计机器学习。 2.深度神经网络中的深度值得是神经网络的层数超过3层。 3.PGM:概率图模型。 4.deep learning的概念更倾向于deep neural network. 阅读全文
摘要:
【机器学习】【白板推导系列】【合集 1~23】_哔哩哔哩_bilibili 知识点: 1.高斯分布。 2.用极大似然估计估计高斯分布中的参数均值μ,和方差Σ。 阅读全文
摘要:
Neural Networks Pt. 1: Inside the Black Box - YouTube 阅读全文
摘要:
把概率引入机器学习中是一件很自然的事情。 注解: 1.X是数据:N个数据,每个数据的纬度是p维。 2.概率模型的解释和例子: 下图的来源:What is a statistical model? - YouTube 注解: 1.频率派认为:参数θ是未知的常量,数据是随机变量。 2.提倡用极大似然估计 阅读全文
摘要:
【机器学习】【白板推导系列】【合集 1~23】_哔哩哔哩_bilibili E:EM算法。 回归分析,分类,神经网络,核方法,稀疏?,概率图模型,混合模型、近似算法、3纬采样,连续性随机变量,顺序数据,组合模型。 大的总结: 阅读全文