摘要: 感知机原理:利用超平面对数据进行二分类。 损失函数:y*(wx+b)。大于0则判断成功否则判断失败。 通过梯度下降法优化损失函数。 机器学习就是分析数据,找到一种能解决你需求的函数关系。 目标感知机:x1+2*x2+3*x3+4*x4+5 代码部分: 引入numpy库: import numpy a 阅读全文
posted @ 2021-07-28 22:52 祥瑞哈哈哈 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法的精髓是:两向量方向相反内积后最小。 梯度下降法是一种优化方法,通过不断的迭代使用梯度下降法来达到优化损失函数的目的。损失函数是表示当前函数与理想函数的差距,梯度下降法就是通过损失函数来优化参数达到函数更加准确的目的。梯度下降法通过迭代来降低损失函数。 dz表示的是损失函数的变化量,可以将 阅读全文
posted @ 2021-07-28 17:50 祥瑞哈哈哈 阅读(241) 评论(0) 推荐(0) 编辑
摘要: 返回和之前相同的张量,只是没有梯度求导。 阅读全文
posted @ 2021-07-28 12:26 祥瑞哈哈哈 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 它们俩个的出现解决了,向同一个函数传入不同参数情况。传入数组数量不同。 阅读全文
posted @ 2021-07-28 12:04 祥瑞哈哈哈 阅读(86) 评论(0) 推荐(0) 编辑
摘要: torch.cat 用于连接多个张量 当dim=0时张量按竖直方向连接,dim=1时按水平方向连接 阅读全文
posted @ 2021-07-28 11:50 祥瑞哈哈哈 阅读(121) 评论(0) 推荐(0) 编辑
摘要: slice函数返回一列数。 返回的是数组,不包括end值。 阅读全文
posted @ 2021-07-28 11:33 祥瑞哈哈哈 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 将数据集变成可以迭代的对象。 阅读全文
posted @ 2021-07-28 11:17 祥瑞哈哈哈 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 可以让节点不进行求梯度,从而节省了内存控件,当神经网络较大且内存不够用时,就需要让梯度为False 代码: x = torch.tensor([1.0], requires_grad=True) with torch.no_grad(): y = x * 2 print(y.requires_gra 阅读全文
posted @ 2021-07-28 10:07 祥瑞哈哈哈 阅读(7164) 评论(0) 推荐(0) 编辑
摘要: 使用不好就用相对路径,将程序和要读取的内容放在一起,之后读取时文件路径直接写文件名就可以 阅读全文
posted @ 2021-07-28 09:22 祥瑞哈哈哈 阅读(34) 评论(0) 推荐(0) 编辑