上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 46 下一页
摘要: 首先说伯努利试验 伯努利分布 伯努利试验说的是下面一种事件情况:在生活中,有一些事件的发生只有两种可能,发生或者不发生(或者叫成功或者失败),这些事件都可以被称为伯努利试验。 伯努利试验的概率分布称为伯努利分布(两点分布、0-1分布),如果记成功概率为p,则失败概率为q=1-p,则: 二项分布 假如 阅读全文
posted @ 2022-06-22 17:03 宋桓公 阅读(295) 评论(0) 推荐(0) 编辑
摘要: 首先上代码,注意代码里的注释,一般的在注释里说明: import torch # 注意这里必须写成两维的矩阵 x_data = torch.Tensor([[1.0], [2.0], [3.0]]) y_data = torch.Tensor([[2.0], [4.0], [6.0]]) class 阅读全文
posted @ 2022-06-21 17:32 宋桓公 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 求最大值最小值的两种主流方法: 将导致设置为0当然是最简单的方法,但是有时求导之后,没法发保证左边只包含w,而右边不包含的情况,此时需要使用梯度下降法。 先随便给一个w的初始值,然后根据导函数,一步步的迭代,直到w收敛。 此时w的对应的f(w)值也越来越趋近最小值! 阅读全文
posted @ 2022-06-21 10:54 宋桓公 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 前馈和反向传播 x: 样本 w: 权重 f: 模型函数 z: 预测值 loss: 损失函数 正向传播时,函数为f,x,w是变量z是因变量。 反向传播时,函数为loss(L),z是变量x,w是因变量。 正向和反向的过程 从这张图我们可以看到,整个过程是先预测,有了预测值之后就可以计算loss,那么其实 阅读全文
posted @ 2022-06-20 21:17 宋桓公 阅读(29) 评论(0) 推荐(0) 编辑
摘要: 首先线性回归的定义域和值域都是负无穷到正无穷,它用来预测一个值,比如知道身高预测体重。 逻辑回归其实是由线性回归演变而来 逻辑回归一般用来做二分类,也就是将概率和0.5做比较,概率大于0.5属于一类,其它属于另外一类。所以我希望值域在(0,1),于是就有了逻辑函数。再叠加上线性回归模型就有了逻辑回归 阅读全文
posted @ 2022-06-20 20:49 宋桓公 阅读(53) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 46 下一页