随笔分类 - 机器学习
摘要:第11讲:卷积 神经网络(高级篇) 视频教程 1.GoogleNet的Inception 1.inception Module包含(Convolution, Pooling, Softmax, Other) 代码说明: 先使用类对Inception Moudel进行封装 使用类封装模型计算过程:(卷
阅读全文
摘要:1.代码: import torch from torchvision import transforms#图像处理 from torchvision import datasets from torch.utils.data import DataLoader#为了构建Dataloader imp
阅读全文
摘要:第9讲:多分类问题(上) 视频教程 用softmax 解决多分类问题 用pytorch 实现多分类问题 1.softmax softmax:让线形层的输出结果(进行softmax前的input)有负数,通过幂指变换,得到正数。所有类的概率求和为1。 2.softmax如何做到上面的操作: 对每一L层
阅读全文
摘要:第8讲:Dataset and Dataloader 视频教程 Epoch:参与训练的所有进行反向正向传播的数据 Batch-Size:批量大小:正向,反向,更新所用的训练样本的数量 Iteration:内层迭代次数 Dataset支持索引操作,提供数据集的长度 Shuffle:打乱数据集,是数据具
阅读全文
摘要:处理多维特征的输入 视频教程 图片来自课程ppt 1.准备数据集: 行:样本 列:每个样本的特征 代码数据集x是前8列,y最后一列 2.多维的逻辑斯蒂回归模型 说明: 计算每个样本的8个特征分别去乘以权重 计算出1的值之后加上偏置量,即z(i)(第i个样本的线性计算值) 将z(i)代入logisti
阅读全文
摘要:逻辑斯蒂回归 视频教程 1.线性模型与逻辑斯蒂回归模型区别? 说明: 多了sigmoid函数 计算损失时有区别 2.为什么选用sigmoid函数? 说明: 回归问题:输出是个R,分类问题:输出是某个分类的[0,1]的概率 利用sigmoid函数将R映射在概率取值范围[0,1]区间上 3.怎样计算二分
阅读全文
摘要:视频教程 1. prepare dataset import torch x_data = torch.Tensor([[1.0],[2.0],[3.0]]) y_data = torch.Tensor([[2.0],[4.0],[6.0]]) #注意:x,y是3*1的张量(矩阵) 2. Desig
阅读全文
摘要:反向传播(Back Propagation): 视频教程 1.代码说明: forward 计算loss backward 反向计算梯度 由sgd再更新W权重 import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = torc
阅读全文
摘要:1.梯度下降(Gradient Descent Algorithm)¶ 代码说明: 1.求损失函数(训练集mse/abs随机样本) 2.and求梯度函数 3.梯度下降公式w = w -学习率 * 梯度函数`` 视频讲解 import matplotlib.pyplot as plt #准备数据 x_
阅读全文
摘要:代码说明: 1.依次输入变量w:函数forward()中变量w由for循环中的区间间隔0.1传入 2.在固定各个w中:for循环中嵌套 计算预测值 计算样本损失值 各个样本的损失值求和 计算均方差 3.添加结果w,mse到列表中 4.绘制图像 视频链接 #导包 import numpy as np
阅读全文
摘要:一、导包 点击查看代码 import numpy as np import pandas as pd import matplotlib.pyplot as plt %matplotlib inline import seaborn as sns#画图seaborn封装了matp;otlib fro
阅读全文