上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 23 下一页
摘要: 一、前言 1、怎么控制一个模型的容量 模型比较小(参数比较少) 每个参数选择的值比较小 2、正则化就是用来限制参数值的取值范围来控制模型容量 二、正则化 1、正则化的目的:防止过拟合 2、正则化其实可以理解为规则化。相当于一个限制,就是说可以给训练的目标函数加上一些规则(限制),让他们不要自我膨胀 阅读全文
posted @ 2021-07-28 20:25 小秦同学在上学 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 一、前言 将模型在训练数据上拟合得比在潜在分布中更接近的现象称为过拟合(overfitting),用于对抗过拟合的技术称为正则化(regularization)。 二、训练误差与泛化误差 1、训练误差(training error):我们的模型在训练数据集上计算得到的误差。、 2、泛化误差(gene 阅读全文
posted @ 2021-07-28 16:28 小秦同学在上学 阅读(441) 评论(0) 推荐(0) 编辑
摘要: 2.1经验误差与过拟合 错误率(error rate) 分类错误的样本数目占样本总数的比例 精度(accuracy) 分类正确的样本数目占样本总数的比例;精度=1-错误率 误差(error) 学习器实际预测输出与样本的真实输出之间的差异 训练误差(training error)/经验误差(empir 阅读全文
posted @ 2021-07-28 15:28 小秦同学在上学 阅读(120) 评论(0) 推荐(0) 编辑
摘要: 1.1引言 机器学习所研究的主要内容 关于在计算机上从数据中产生“模型”(学习器)的算法,即“学习算法” 机器学习是研究关于“学习算法”的学问 1.2基本术语 学得模型前 数据集(data set) 一组记录的集合 示例(instance)/样本(sample) 数据集中每条关于一个事件或对象的描述 阅读全文
posted @ 2021-07-28 15:27 小秦同学在上学 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 一、前言 1、和softmax实现一样,唯一的区别是我们模型含有两个全连接层 2、直接通过高级API更简洁实现多层感知机 3、对于相同的分类问题,多层感知机的实现和softmax回归的实现完全相同,只是多层感知机的实现增加了带有激活函数的隐藏层 二、模型 1、第一层是隐藏层,包含256个隐藏单元,并 阅读全文
posted @ 2021-07-28 11:19 小秦同学在上学 阅读(460) 评论(0) 推荐(0) 编辑
摘要: 一、前言 使用Fashion-MNIST图像分类数据集 import torch from torch import nn from d2l import torch as d2l #批量大小等于256 batch_size = 256 train_iter, test_iter = d2l.loa 阅读全文
posted @ 2021-07-28 10:58 小秦同学在上学 阅读(876) 评论(0) 推荐(1) 编辑
摘要: 一、前言 1、多层感知机在输出层和输入层之间增加了一个或全连接的隐藏层,并通过激活函数转换隐藏层的输出。 2、常用的激活函数包括ReLU函数、sigmoid函数和tanh函数 二、隐藏层(hidden layer) 1、多层感知机在单层神经网络的基础上引入了一到多个隐藏层。隐藏层位于输入层到输出层之 阅读全文
posted @ 2021-07-27 21:47 小秦同学在上学 阅读(1390) 评论(0) 推荐(0) 编辑
摘要: 一、前言 1、通过深度学习框架的高级API能更方便地实现分类模型。 2、使用Fashion-MNIST数据集,并保持批量大小为256。 #通过pytorch中nn的模型来实现softmax回归 import torch from torch import nn from d2l import tor 阅读全文
posted @ 2021-07-27 20:05 小秦同学在上学 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 一、创建数据集 从Fashion-MNIST数据集中引入创建数据,并设置数据迭代器的批量大小为256 import torch from IPython import display from d2l import torch as d2l #batch_size=256,表明随机读取256张图片 阅读全文
posted @ 2021-07-27 19:51 小秦同学在上学 阅读(1182) 评论(0) 推荐(2) 编辑
摘要: 一、前言 1、前广泛使用的图像分类数据集之一是 MNIST 数据集,虽然它是很不错的基准数据集,但按今天的标准,即使是简单的模型也能达到95%以上的分类准确率,因此不适合区分强模型和弱模型。 2、为了提高难度,我们将在接下来的章节中讨论在2017年发布的性质相似但相对复杂的Fashion-MNIST 阅读全文
posted @ 2021-07-27 11:10 小秦同学在上学 阅读(997) 评论(0) 推荐(2) 编辑
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 23 下一页