上一页 1 ··· 5 6 7 8 9 10 11 下一页
摘要: numpy.power(n, x) 对数组n的元素分别求x次方。x可以是数字,也可以是数组,但是n和x的列数要相同。 阅读全文
posted @ 2019-02-09 01:36 NeoML 阅读(675) 评论(0) 推荐(0) 编辑
摘要: 与单变量线性回归类似,在多变量线性回归中,我们也构建一个代价函数,则这个代价函数是所有建模误差的平方和,即: 其中:ℎ𝜃(𝑥) = 𝜃𝑇𝑋 = 𝜃0 + 𝜃1𝑥1 + 𝜃2𝑥2+. . . +𝜃𝑛𝑥𝑛 ,我们的目标和单变量线性回归问题中一样,是要找出使得代价函数最小的一系 阅读全文
posted @ 2019-02-09 01:27 NeoML 阅读(365) 评论(0) 推荐(0) 编辑
摘要: 1、转置 #reshape(shape)函数改变数组形状,shape是一个元组,表示数组的形状 创建一个包含15个元素的一维数组,通过reshape函数调整数组形状为3行5列的二维数组arr = np.arange(15).reshape((3,5))print(arr) 结果:[[ 0 1 2 3 阅读全文
posted @ 2019-02-07 00:45 NeoML 阅读(1082) 评论(0) 推荐(0) 编辑
摘要: 1、一维数组索引与切片#创建一维数组arr1d = np.arange(10)print(arr1d) 结果:[0 1 2 3 4 5 6 7 8 9] #数组的索引从0开始,通过索引获取第三个元素arr1d[2] 结果:2 #切片,左闭右开区间,从索引3开始,直到索引7结束 arr1d[3:8] 阅读全文
posted @ 2019-02-07 00:44 NeoML 阅读(683) 评论(0) 推荐(0) 编辑
摘要: NumPy是Python的一个高性能科学计算和数据分析基础库,提供了功能强大的多维数组对象ndarray。jupyter notebook快速执行代码的快捷键:鼠标点击选中要指定的代码框,Shift + Enter组合键直接执行代码框中的全部代码。 Alt + Enter组合键执行完代码框中的代码在 阅读全文
posted @ 2019-02-07 00:43 NeoML 阅读(642) 评论(0) 推荐(0) 编辑
摘要: 我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(𝑥1, 𝑥1, . . . , 𝑥𝑛)。 增添更多特征后,我们引入一系列新的注释:𝑛 代表特征的数量𝑥(𝑖)代表第 𝑖 个训练实例,是特征矩阵中的第𝑖行 阅读全文
posted @ 2019-02-05 01:33 NeoML 阅读(255) 评论(0) 推荐(0) 编辑
摘要: 梯度下降算法和线性回归算法比较如图: 对我们之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,即: 我们刚刚使用的算法,有时也称为批量梯度下降。实际上,在机器学习中,通常不太会给算法起名字,但这个名字”批量梯度下降”,指的是在梯度下降的每一步中,我们都用到了所有的训练样本,在梯度下降中, 阅读全文
posted @ 2019-01-20 02:03 NeoML 阅读(295) 评论(0) 推荐(0) 编辑
摘要: del删除时候指定下标,remove必须指定具体的值 阅读全文
posted @ 2019-01-20 01:18 NeoML 阅读(423) 评论(0) 推荐(0) 编辑
摘要: 在之前的学习中,我们给出了一个数学上关于梯度下降的定义,本次视频我们更深入研究一下,更直观地感受一下这个算法是做什么的,以及梯度下降算法的更新过程有什么意义。梯度下降算法如下: 描述:对𝜃赋值,使得𝐽(𝜃)按梯度下降最快方向进行,一直迭代下去,最终得到局部最小值。其中𝑎是学习率(learni 阅读全文
posted @ 2019-01-18 02:01 NeoML 阅读(663) 评论(0) 推荐(0) 编辑
摘要: 梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数𝐽(𝜃0, 𝜃1) 的最小值。 梯度下降背后的思想是:开始时我们随机选择一个参数的组合(𝜃0, 𝜃1, . . . . . . , 𝜃𝑛),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持 阅读全文
posted @ 2019-01-16 16:06 NeoML 阅读(338) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 下一页