摘要: def train_concise(wd): net = nn.Sequential(nn.Linear(num_inputs, 1)) for param in net.parameters(): param.data.normal_() loss = nn.MSELoss() num_epoch 阅读全文
posted @ 2021-07-28 20:36 小秦同学在上学 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 一、生成数据集 #权重衰退是最广泛使用的正则化的技术之一 %matplotlib inline import torch from torch import nn from d2l import torch as d2l #𝜖 where 𝜖∼(0,0.012):表示噪音,是一个均值为0,方差 阅读全文
posted @ 2021-07-28 20:33 小秦同学在上学 阅读(500) 评论(0) 推荐(0) 编辑
摘要: 一、前言 1、怎么控制一个模型的容量 模型比较小(参数比较少) 每个参数选择的值比较小 2、正则化就是用来限制参数值的取值范围来控制模型容量 二、正则化 1、正则化的目的:防止过拟合 2、正则化其实可以理解为规则化。相当于一个限制,就是说可以给训练的目标函数加上一些规则(限制),让他们不要自我膨胀 阅读全文
posted @ 2021-07-28 20:25 小秦同学在上学 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 一、前言 将模型在训练数据上拟合得比在潜在分布中更接近的现象称为过拟合(overfitting),用于对抗过拟合的技术称为正则化(regularization)。 二、训练误差与泛化误差 1、训练误差(training error):我们的模型在训练数据集上计算得到的误差。、 2、泛化误差(gene 阅读全文
posted @ 2021-07-28 16:28 小秦同学在上学 阅读(441) 评论(0) 推荐(0) 编辑
摘要: 2.1经验误差与过拟合 错误率(error rate) 分类错误的样本数目占样本总数的比例 精度(accuracy) 分类正确的样本数目占样本总数的比例;精度=1-错误率 误差(error) 学习器实际预测输出与样本的真实输出之间的差异 训练误差(training error)/经验误差(empir 阅读全文
posted @ 2021-07-28 15:28 小秦同学在上学 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 1.1引言 机器学习所研究的主要内容 关于在计算机上从数据中产生“模型”(学习器)的算法,即“学习算法” 机器学习是研究关于“学习算法”的学问 1.2基本术语 学得模型前 数据集(data set) 一组记录的集合 示例(instance)/样本(sample) 数据集中每条关于一个事件或对象的描述 阅读全文
posted @ 2021-07-28 15:27 小秦同学在上学 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 一、前言 1、和softmax实现一样,唯一的区别是我们模型含有两个全连接层 2、直接通过高级API更简洁实现多层感知机 3、对于相同的分类问题,多层感知机的实现和softmax回归的实现完全相同,只是多层感知机的实现增加了带有激活函数的隐藏层 二、模型 1、第一层是隐藏层,包含256个隐藏单元,并 阅读全文
posted @ 2021-07-28 11:19 小秦同学在上学 阅读(460) 评论(0) 推荐(0) 编辑
摘要: 一、前言 使用Fashion-MNIST图像分类数据集 import torch from torch import nn from d2l import torch as d2l #批量大小等于256 batch_size = 256 train_iter, test_iter = d2l.loa 阅读全文
posted @ 2021-07-28 10:58 小秦同学在上学 阅读(876) 评论(0) 推荐(1) 编辑