会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
cha
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
5
6
7
8
9
10
11
下一页
2019年2月9日
Numpy学习四:numpy.power()用法
摘要: numpy.power(n, x) 对数组n的元素分别求x次方。x可以是数字,也可以是数组,但是n和x的列数要相同。
阅读全文
posted @ 2019-02-09 01:36 chalee3
阅读(683)
评论(0)
推荐(0)
编辑
吴恩达机器学习笔记9-多变量梯度下降
摘要: 与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即: 其中:ℎ𝜃(𝑥) = 𝜃𝑇𝑋 = 𝜃0 + 𝜃1𝑥1 + 𝜃2𝑥2+. . . +𝜃𝑛𝑥𝑛 ,我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系
阅读全文
posted @ 2019-02-09 01:27 chalee3
阅读(372)
评论(0)
推荐(0)
编辑
2019年2月7日
Numpy学习三:数组运算
摘要: 1、转置 #reshape(shape)函数改变数组形状,shape是一个元组,表示数组的形状 创建一个包含15个元素的一维数组,通过reshape函数调整数组形状为3行5列的二维数组arr = np.arange(15).reshape((3,5))print(arr) 结果:[[ 0 1 2 3
阅读全文
posted @ 2019-02-07 00:45 chalee3
阅读(1102)
评论(0)
推荐(0)
编辑
Numpy学习二:数组的索引与切片
摘要: 1、一维数组索引与切片#创建一维数组arr1d = np.arange(10)print(arr1d) 结果:[0 1 2 3 4 5 6 7 8 9] #数组的索引从0开始,通过索引获取第三个元素arr1d[2] 结果:2 #切片,左闭右开区间,从索引3开始,直到索引7结束 arr1d[3:8]
阅读全文
posted @ 2019-02-07 00:44 chalee3
阅读(694)
评论(0)
推荐(0)
编辑
Numpy学习一:ndarray数组对象
摘要: NumPy是Python的一个高性能科学计算和数据分析基础库,提供了功能强大的多维数组对象ndarray。jupyter notebook快速执行代码的快捷键:鼠标点击选中要指定的代码框,Shift + Enter组合键直接执行代码框中的全部代码。 Alt + Enter组合键执行完代码框中的代码在
阅读全文
posted @ 2019-02-07 00:43 chalee3
阅读(661)
评论(0)
推荐(0)
编辑
2019年2月5日
吴恩达机器学习笔记8-多变量线性回归(Linear Regression with Multiple Variables)--多维特征
摘要: 我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(𝑥1, 𝑥1, . . . , 𝑥𝑛)。 增添更多特征后,我们引入一系列新的注释:𝑛 代表特征的数量𝑥(𝑖)代表第 𝑖 个训练实例,是特征矩阵中的第𝑖行
阅读全文
posted @ 2019-02-05 01:33 chalee3
阅读(260)
评论(0)
推荐(0)
编辑
2019年1月20日
吴恩达机器学习笔记7-梯度下降III(Gradient descent intuition) --梯度下降的线性回归
摘要: 梯度下降算法和线性回归算法比较如图: 对我们之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,即: 我们刚刚使用的算法,有时也称为批量梯度下降。实际上,在机器学习中,通常不太会给算法起名字,但这个名字”批量梯度下降”,指的是在梯度下降的每一步中,我们都用到了所有的训练样本,在梯度下降中,
阅读全文
posted @ 2019-01-20 02:03 chalee3
阅读(299)
评论(0)
推荐(0)
编辑
Python中list的删除del&remove小区别
摘要: del删除时候指定下标,remove必须指定具体的值
阅读全文
posted @ 2019-01-20 01:18 chalee3
阅读(424)
评论(0)
推荐(0)
编辑
2019年1月18日
吴恩达机器学习笔记6-梯度下降II(Gradient descent intuition)--梯度下降的直观理解
摘要: 在之前的学习中,我们给出了一个数学上关于梯度下降的定义,本次视频我们更深入研究一下,更直观地感受一下这个算法是做什么的,以及梯度下降算法的更新过程有什么意义。梯度下降算法如下: 描述:对𝜃赋值,使得𝐽(𝜃)按梯度下降最快方向进行,一直迭代下去,最终得到局部最小值。其中𝑎是学习率(learni
阅读全文
posted @ 2019-01-18 02:01 chalee3
阅读(679)
评论(0)
推荐(0)
编辑
2019年1月16日
吴恩达机器学习笔记5-梯度下降I(Gradient descent intuition)
摘要: 梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数𝐽(𝜃0, 𝜃1) 的最小值。 梯度下降背后的思想是:开始时我们随机选择一个参数的组合(𝜃0, 𝜃1, . . . . . . , 𝜃𝑛),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持
阅读全文
posted @ 2019-01-16 16:06 chalee3
阅读(346)
评论(0)
推荐(0)
编辑
上一页
1
···
5
6
7
8
9
10
11
下一页
公告