//目录
摘要: precision = 5 / 8 (预测中/视野) recall = 5 / 12 (预测中/个数总和) F1 - score = 2 * precision * recall / (precion + recall) 阅读全文
posted @ 2018-12-01 18:53 小草的大树梦 阅读(961) 评论(0) 推荐(0) 编辑
摘要: 从最简单的线性回归来说,小批量随机梯度下降的时候,X,y 从迭代器中取出,也是bach_size大小的数据集,那么网络的计算,同样也是小批量的。 即代码 l = loss(net(X),y) 包含了,小批量数据集,每一个数据丢到网络中,计算出返回值以后,和真实值得损失。 阅读全文
posted @ 2018-12-01 17:21 小草的大树梦 阅读(214) 评论(0) 推荐(0) 编辑
摘要: http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
posted @ 2018-12-01 14:19 小草的大树梦 阅读(373) 评论(0) 推荐(0) 编辑
摘要: http://mxnet.apache.org/api/python/gluon/data.html 阅读全文
posted @ 2018-12-01 12:40 小草的大树梦 阅读(315) 评论(0) 推荐(0) 编辑