摘要:
一、前言 1、softmax回归不是回归问题,而是分类问题 2、分类问题:对离散值的预测。 3、分类问题通常有多个输出,输出 i 预测为第 i 类的置信度 二、网络结构 1、为了估计所有可能类别的条件概率,我们需要一个有多个输出的模型,每个类别对应一个输出 2、在我们的例子中,由于我们有4个特征和3 阅读全文
摘要:
前言: 简洁实现:使用深度学习开源框架达到目的 一、生成数据集 #线性回归的简洁实现就是使用pytorch内置的一些模块来实现 import numpy as np import torch from torch.utils import data #从torch.utils中导入关于data处理的 阅读全文
摘要:
一、前言 我们将从零开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降优化器。虽然现代的深度学习框架几乎可以自动化地进行所有这些工作,但从零开始实现可以确保你真正知道自己在做什么。 例子中我们先用自己设置好的w和b去生成数据集,再用建立的模型去跑数据生成w和b。比较,熟悉流程。 二 阅读全文
摘要:
一、回归 回归:是指一类为一个或多个自变量与因变量之间关系建模的方法,通常用来表示输入与输出的关系(连续值) 二、线性回归 自变量x与因变量 y 之间的关系是线性的,即y可以表示为 x 中元素的加权和,这里通常允许包含观测值的一些噪声 三、线性模型 式子中:w 称为权重;b为偏置 1、权重决定了每个 阅读全文
摘要:
一、基本概率论——模拟骰子 1、导入必要包 # matplotlib inline jupyter常用于生成画布 %matplotlib inline import torch from torch.distributions import multinomial from d2l import t 阅读全文
摘要:
梯度:是一个包含n个偏导数的向量 阅读全文
摘要:
一、点积 概念:相同位置的按元素乘积的和,可以通过dot()函数调用 y = torch.ones(4, dtype=torch.float32) print(y) print(x) # 点积:相同位置的按元素乘积的和 print(torch.dot(x, y)) # 可以通过执行元素乘法,然后进行 阅读全文
摘要:
给定任何相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量 A = torch.arange(20, dtype=torch.float32).reshape(5, 4) B = A.clone() # 通过分配新内存,将A的一个副本分配给B A, A + B #输出结果 (ten 阅读全文
摘要:
一、标量:由一个元素的张量表示 1、标量变量由普通小写字母表示(例如:x y 和 z) 2、 R 表示所有(连续)实数 标量的空间 3、表达式 x∈R 是表示x是一个实值标量的正式形式 4、x,y∈{0,1} 来表明 x 和 y 是值只能为 0 或 1的数字 import torch x = tor 阅读全文
摘要:
一、读取数据集 1、将数据集按行写入到csv文件中 import os # os.path.join():路径拼接函数,本例中会生成如下路径 ../data # os.makedirs():用来创建多层目录(多层就是深度),exist_ok=True是在目录已存在的情况下不报错,默认为False,目 阅读全文