//目录
摘要: 多项式拟合 In [1]: %matplotlib inline import gluonbook as gb from mxnet import nd,autograd, gluon from mxnet.gluon import data as gdata,loss as gloss,nn 生成 阅读全文
posted @ 2018-11-26 18:24 小草的大树梦 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 训练误差:在训练集上的表现 泛化误差:在任意一个数据样本上表现的误差 计算误差:损失函数 在机器学习中,假设每个样本都是独立同分布与整体的,于是它训练误差期望 = 泛化误差 一般情况下:由训练数据集学到的训练参数 使得 模型在训练数据集上的表现优于或等于 测试数据集上的表现 模型选择:可以选择完全不 阅读全文
posted @ 2018-11-26 18:21 小草的大树梦 阅读(386) 评论(0) 推荐(0) 编辑
摘要: MLP_Gluon In [2]: import gluonbook as gb from mxnet import gluon, init from mxnet.gluon import loss as gloss,nn In [4]: net = nn.Sequential() net.add( 阅读全文
posted @ 2018-11-26 16:43 小草的大树梦 阅读(287) 评论(0) 推荐(0) 编辑
摘要: MLP In [1]: %matplotlib inline import gluonbook as gb from mxnet.gluon import loss as gloss from mxnet import nd from mxnet import autograd In [2]: ba 阅读全文
posted @ 2018-11-26 16:14 小草的大树梦 阅读(647) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2018-11-26 16:12 小草的大树梦 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 将cifar10改成单一通道后,套用前面的softmax分类,分类率40%左右,想哭。。。 In [1]: %matplotlib inline from mxnet.gluon import data as gdata from mxnet import autograd,nd import gl 阅读全文
posted @ 2018-11-26 15:03 小草的大树梦 阅读(751) 评论(0) 推荐(0) 编辑