上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 46 下一页
摘要: 前言 开始会给出公式,后面结合正态分布的的期望和方差,来更具体的理解他们。 期望 首先,期望全名“数学期望”,又名均值或估计值,注意和平均值不是一个概念。这个后续再说。 说到期望,就得先说分布列。 X 表示不同种类的事件对应的数值,P表示每钟事件发现的概率 。 什么叫做事件对应的数值,这其实是我们自 阅读全文
posted @ 2022-06-27 12:03 宋桓公 阅读(1033) 评论(0) 推荐(0) 编辑
摘要: 书接上回《pytorch 搭建神经网络最简版》上次并未用到miniBatch,一次性将全部的数据输入进行训练。 这次通过DataLoader实现miniBatch import torch import numpy as np from torch.utils.data import Dataset 阅读全文
posted @ 2022-06-25 14:42 宋桓公 阅读(51) 评论(0) 推荐(0) 编辑
摘要: 数据集为,糖尿病患者各项指标以及是否换糖尿病。 diabetes.csv 训练集 diabetes_test.csv 测试集 import torch import torch.nn.functional as F import numpy as np import matplotlib.pyplo 阅读全文
posted @ 2022-06-24 19:56 宋桓公 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 从一维特性输入到多维特征 单看一维的时候,还没有什么感觉。 但是当看到这张图的时候,我的第一个反应是,原来激活函数是这么个意思啊! (但是这里还有一点需要注意:这里仅仅是输入的维度增加了,输出还是0和1,所以这还是一个二分类的问题,只是输入特征变成了多维,到了多分类就该引入softmax了) 一开始 阅读全文
posted @ 2022-06-24 08:22 宋桓公 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 如果这个信息,可以将之前非常不确定的事情,确定了,说明这个信息的信息量很大! 这张图是解释,数学家如何定义信息量的过程: 也就是说,阿根廷夺冠的信息量 = 阿根廷进决赛的信息量+阿根廷赢了决赛的信息量,但是x本身是概率,所以这里的1/8 是 x1*x2 的结果。及: 这种特性是log特有的。 然后底 阅读全文
posted @ 2022-06-22 20:28 宋桓公 阅读(18) 评论(0) 推荐(0) 编辑
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 46 下一页