随笔 - 1759  文章 - 0  评论 - 109  阅读 - 430万

随笔分类 -  复旦大学计算机学院研究生课程《神经网络与深度学习》

神经网络与深度学习-邱锡鹏-学习笔记17-线性回归的概率视角
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.几乎所有机器学习问题都可以以概率建模的角度考虑。 2.现在不是建立一个映射函数,而是建立x,y之间的条件概率关系式。 3.通常来说,机器学习中的标签值y是给定的,那怎么能看成是随机变量呢? 4.因为噪声ε~N( 阅读全文
posted @ 2021-10-25 10:37 一杯明月 阅读(482) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记16-多项式回归
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.非线性的问题假如用线性方程去拟合,那会出现欠拟合的情况。 2.解决办法就是用Ф(X)代替X,如下图: 注解: 1.依然可以把多项式回归模型写成线性的形式y=wTФ(x),有了这样一个线性形式的话,就可以利用线性 阅读全文
posted @ 2021-10-22 12:10 一杯明月 阅读(574) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记15-线性回归及矩阵求导
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.在这个例子中,x是个一维的标量,在很多问题中,x是一个一维的向量。 注解: 1.如果不加偏置,相当于模型穿过原点,如果加上偏置,相当于直线上移了一点。 2.可以通过增广的权重向量和增广的特征向量把在形式上b消除 阅读全文
posted @ 2021-10-21 21:07 一杯明月 阅读(485) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记14-泛化和正则化
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 上一讲说模型迭代的时候要在验证集上错误率不再下降为止,为何要强调是验证集,而不是训练集呢?这就涉及到模型的泛化和正则化。 注解: 1.欠拟合:直线。 2.正常:二次曲线。 3.过拟合:比二次曲线复杂的曲线(增加了模型的复杂 阅读全文
posted @ 2021-10-21 14:27 一杯明月 阅读(269) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记13-机器学习的要素
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 注解: 1.在假定的空间中建立一个最优的模型,利用这个模型建立x和y之间的关系。 2.需要有一个准则来判断学习到的模型是好是坏。 注解: 1.左边是线性模型,右边是非线性模型。 注解: 1.函数的预测值f(x,θ*)与真实 阅读全文
posted @ 2021-10-21 00:54 一杯明月 阅读(172) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记12-机器学习的类型
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 本节知识点:哪些事情的预测属于机器学习? 注解: 1.这个问题的输出是一个连续值,这样的问题都称为回归问题。 注解: 1.这个问题的输出的也是一个连续值,这样的问题都称为回归问题。 注解: 1.这个问题的输出的也是一个连续 阅读全文
posted @ 2021-10-20 18:39 一杯明月 阅读(101) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记11-机器学习的定义
摘要:注解: 1.对于声音识别和手写数字识别,人类很难(特别难)通过总结某种规则用程序实现声音识别和手写数字识别。 2.所以,需要通过构造很多很多的训练样本,训练神经网络,让计算机(某个神经网络)去总结规则,实现声音识别或者手写数字识别,这就是需要利用机器学习的原因。 注解: 1.机器学习不是说在训练数据 阅读全文
posted @ 2021-10-20 18:00 一杯明月 阅读(66) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记10-关于概率的一些基本概念
摘要:注解: 1.随机变量和随机事件不等价,一个随机事件可以定义很多随机变量。 2.随机变量是定义在一个随机事件里面的变量,可以有很多种定义方法,比如可以定义出现某一个值的概率,也可以定义出现奇数的概率。 3.概率分布就是所定义的一个随机变量取所有可能值的概率的一个表。对于离散型的随机变量来说,概率分布就 阅读全文
posted @ 2021-10-20 12:25 一杯明月 阅读(870) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记9
摘要: 阅读全文
posted @ 2021-10-20 11:08 一杯明月 阅读(52) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记8
摘要: 阅读全文
posted @ 2021-10-20 11:07 一杯明月 阅读(65) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记7-神经网络
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili axon 英 [ˈæksɒn] 美 [ˈæksɑːn] n. 轴索,[解剖]轴突(神经细胞) telodendria 终端(树)突 nucleus 英 [ˈnjuːkliəs] 美 [ˈnuːkliəs] n. 原子核;细 阅读全文
posted @ 2021-10-19 21:41 一杯明月 阅读(398) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记6
摘要:神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili 阅读全文
posted @ 2021-10-19 21:01 一杯明月 阅读(43) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记5
摘要:注解: 1.解决贡献度分配的一个很好的方法是:神经网络。 注解: 1.很多的深度学习都是端到端的学习。 注解: 1.自变量x可能是我们人抽取的已经包含高层语义的特征。 2.为什么f1(x)是非线性函数,因为假如是线性,嵌套再多层,还是线性。 阅读全文
posted @ 2021-10-19 21:00 一杯明月 阅读(80) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记4
摘要:注解: 1.建立一个从像素到语义的映射其实是很困难的。 注解: 1.一般性,指的是泛化能力。 注解: 1.one-hot编码,也叫独热编码。 2.局部表示:一个4维向量,每个独立的维度都表示一个语义。如[1 0 0 0]表示A。 3.分布式表示:两个维度合起来共同表示一个语义,如[0.25,0.5] 阅读全文
posted @ 2021-10-19 17:35 一杯明月 阅读(124) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记3
摘要:注解: 1.写个程序实现区分左右两个区域的三角形,规则人可以看出来,即:左边都是直角三角形。 2.有的规则人不容易看出来。 注解: 1.声音识别,通过人类的思考,规则是很难找到的。即很难通过写一个程序,去做声音识别,因为规则不知道。 2.数字识别也是,很难找到2这个数字的规律。 3.怎么办?答:通过 阅读全文
posted @ 2021-10-19 16:41 一杯明月 阅读(102) 评论(0) 推荐(0) 编辑
神经网络与深度学习-邱锡鹏-学习笔记1.绪论
摘要:注解: 1.在一个复杂系统中,每个模块对最终做出的决策的贡献是多少。 2.现在深度学习主要的模型是神经网络。 注解: 1.概率图模型:试图以概率问题去建模各式各样的问题。 注解: 1.逻辑回归和softmax回归在后面的5个非线性分类器中能用到。 注解: 1.github上有配套练习的答案,有些是网 阅读全文
posted @ 2021-10-19 16:09 一杯明月 阅读(205) 评论(0) 推荐(0) 编辑
概率分布函数和概率密度函数
摘要:2021.10.25 张宇考研概率论强化班_哔哩哔哩_bilibili 数学要做一件事情,就是把这些随机事件进行统一化,数量化。 ω代表具体发生的一个事件,X代表一个特殊的映射,X=X(ω),这样就把具体的事件映射到数轴上一个具体的数值。 如投篮:投进映射成1,投不进映射成0. 一般的函数如果是取1 阅读全文
posted @ 2020-06-29 16:39 一杯明月 阅读(5078) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示