04 2023 档案

摘要:深度学习--GAN实战 DCGAN import torch from torch import nn, optim, autograd import numpy as np import visdom import random #用python -m visdom.server启动服务 h_di 阅读全文
posted @ 2023-04-27 12:51 林每天都要努力 阅读(78) 评论(0) 推荐(0) 编辑
摘要:深度学习--GAN网络 GAN是一种深度学习模型,全称为生成对抗网络(Generative Adversarial Networks)。它由两个神经网络组成:一个生成器网络和一个判别器网络。 生成器网络通过学习训练数据的分布,生成新的数据。而判别器网络则尝试区分生成器生成的数据和真实的训练数据。在训 阅读全文
posted @ 2023-04-26 16:22 林每天都要努力 阅读(218) 评论(0) 推荐(0) 编辑
摘要:深度学习--LSTM网络、使用方法、实战情感分类问题 1.LSTM基础 长短期记忆网络(Long Short-Term Memory,简称LSTM),是RNN的一种,为了解决RNN存在长期依赖问题而设计出来的。 LSTM的基本结构: 2.LSTM的具体说明 LSTM与RNN的结构相比,在参数更新的过 阅读全文
posted @ 2023-04-26 14:03 林每天都要努力 阅读(700) 评论(0) 推荐(1) 编辑
摘要:深度学习--RNN实战与存在问题 时间序列预测 import numpy as np import torch import torch.nn as nn import torch.optim as optim from matplotlib import pyplot as plt #数量 num 阅读全文
posted @ 2023-04-25 19:39 林每天都要努力 阅读(81) 评论(0) 推荐(0) 编辑
摘要:深度学习--RNN基础 ​ RNN(Recurrent Neutral Network,循环神经网络),主要应用于自然语言处理NLP。 RNN表示方法 1.编码 因为Pytorch中没有String类型数据,需要引入序列表示法(sequence representation)对文本进行表示。 ​ 表 阅读全文
posted @ 2023-04-25 18:17 林每天都要努力 阅读(185) 评论(0) 推荐(0) 编辑
摘要:深度学习--实战 ResNet18 ResNet18的基本含义是,网络的基本架构是ResNet,网络的深度是18层。但是这里的网络深度指的是网络的权重层,也就是包括池化,激活,线性层。而不包括批量化归一层,池化层。 模型实现 import torch from torch import nn imp 阅读全文
posted @ 2023-04-24 16:48 林每天都要努力 阅读(417) 评论(0) 推荐(1) 编辑
摘要:深度学习--实战 LeNet5 数据集 数据集选用CIFAR-10的数据集,Cifar-10 是由 Hinton 的学生 Alex Krizhevsky、Ilya Sutskever 收集的一个用于普适物体识别的计算机视觉数据集,它包含 60000 张 32 X 32 的 RGB 彩色图片,总共 1 阅读全文
posted @ 2023-04-24 15:50 林每天都要努力 阅读(175) 评论(0) 推荐(0) 编辑
摘要:深度学习--魔法类nn.Module 作用 #pytorch 封装了一些基本的网络类,可以直接调用 #好处: 可以直接调用现有的类 容器机制:self.net = nn.Sequential() 参数返回:list(net.parameters())[0].shape #返回对应的参数的shape 阅读全文
posted @ 2023-04-24 10:31 林每天都要努力 阅读(64) 评论(0) 推荐(0) 编辑
摘要:深度学习--初识卷积神经网络 1.LeNet-5 80年代,正确率达到99.2% 5/6层 输入层:32*32 第一层:卷积层 6@28*28 第二层:下采样层 6@14*14 第三层:卷积层 16@10*10 第四层:下采样层 16@5*5 第五层:全连接层 120 第六层:全连接层 84 输出层 阅读全文
posted @ 2023-04-24 09:38 林每天都要努力 阅读(25) 评论(0) 推荐(0) 编辑
摘要:深度学习--卷积神经网络基础 1.卷积操作 卷积操作简单来说就是矩阵对应位置相乘求和,这样不仅可以减少模型的参数数量,还可以关注到图像的局部相关特性。 import torch import torch.nn as nn import torch.nn.functional as F #卷积操作(I 阅读全文
posted @ 2023-04-23 21:00 林每天都要努力 阅读(51) 评论(0) 推荐(0) 编辑
摘要:深度学习--可视化、过拟合 cmd运行命令:python -e visdom.server 用法: from visdom import Visdom viz = Visdom() viz.line([0.],[0.],win='train_loss',opts=dict(title='train 阅读全文
posted @ 2023-04-22 21:08 林每天都要努力 阅读(25) 评论(0) 推荐(0) 编辑
摘要:深度学习--全连接层、高阶应用、GPU加速 MSE均方差 Cross Entropy Loss:交叉熵损失 Entropy 熵: 1948年,香农将统计物理中熵的概念,引申到信道通信的过程中,从而开创了信息论这门学科,把信息中排除了冗余后的平均信息量称为“信息熵”。香农定义的“熵”又被称为香农熵或信 阅读全文
posted @ 2023-04-22 19:10 林每天都要努力 阅读(238) 评论(0) 推荐(0) 编辑
摘要:深度学习--常见激活函数 梯度下降出现问题:局部最小值、鞍点 影响因素: 初始状态 学习率 :影响收敛速度和收敛精度 动量:如何逃离局部最小值,增加一个惯性 激活函数及其梯度 阶跃函数 Sigmode/logistic 函数 (0,0.5) y=1/(1-e^(-x)) y'=y(1-y) impo 阅读全文
posted @ 2023-04-21 22:31 林每天都要努力 阅读(87) 评论(0) 推荐(0) 编辑
摘要:深度学习--统计与数据映射 范数 import torch #范数norm 第一范数:绝对值求和 第二范数:平方和后求根号 norm使用要求是浮点数 a=torch.full([8],1.) #tensor([1., 1., 1., 1., 1., 1., 1., 1.]) b=a.view(2,4 阅读全文
posted @ 2023-04-21 19:41 林每天都要努力 阅读(38) 评论(0) 推荐(0) 编辑
摘要:深度学习--数学运算符 基础运算符 加减乘除 import torch a=torch.randint(1,10,[2,2]) b=torch.randint(1,10,[2,2]) print(a) #tensor([[9, 7],[5, 8]]) print(b) #tensor([[2, 4] 阅读全文
posted @ 2023-04-20 22:06 林每天都要努力 阅读(52) 评论(0) 推荐(0) 编辑
摘要:深度学习--PyTorch维度变换、自动拓展、合并与分割 一、维度变换 1.1 view/reshape 变换 ​ 这两个方法用法相同,就是变换变量的shape,变换前后的数据量相等。 a=torch.rand(4,1,28,28) a.view(4,28*28) #tensor([[0.9787, 阅读全文
posted @ 2023-04-20 17:32 林每天都要努力 阅读(321) 评论(0) 推荐(0) 编辑
摘要:深度学习--PyTorch定义Tensor 一、创建Tensor 1.1未初始化的方法 ​ 这些方法只是开辟了空间,所附的初始值(非常大,非常小,0),后面还需要我们进行数据的存入。 torch.empty():返回一个没有初始化的Tensor,默认是FloatTensor类型。 #torch.em 阅读全文
posted @ 2023-04-20 14:48 林每天都要努力 阅读(233) 评论(0) 推荐(0) 编辑
摘要:深度学习-Pytorch常见的数据类型 数据类型认识 首先,python与PyTorch中的数据类型 | python | PyTorch | | : : | : : | | int | IntTensor | | float | FloatTensor | | int array | IntTen 阅读全文
posted @ 2023-04-19 15:52 林每天都要努力 阅读(87) 评论(0) 推荐(0) 编辑
摘要:深度学习--梯度下降再理解+线性回归 梯度下降 梯度下降的对象是 模型的参数,即 权重w ,偏置项b,通过寻找合适的参数使模型的loss值最小 Loss函数是关于输入,输出,权重,偏置项的函数,即:loss=(y-(wx+b))^2。loss值最小,y与wx+b相似。 个人思考:如果训练的数据量越大 阅读全文
posted @ 2023-04-19 12:42 林每天都要努力 阅读(35) 评论(0) 推荐(0) 编辑
摘要:深度学习——第一个ANN网络 深度学习学的第一个网络,参考B站视频 https://www.bilibili.com/video/BV1m4411x7KU/?spm_id_from=333.999.0.0&vd_source=b1c9346178fc41766e00c3d88901f1cf 网络概述 阅读全文
posted @ 2023-04-18 10:48 林每天都要努力 阅读(122) 评论(1) 推荐(0) 编辑
摘要:深度学习-个人理解 深度学习模型类似一个黑盒子,输入一组数据,产生一个输出,这个输出就可以称为得分函数的输出值。 根据输出值与实际值之间的比较,通过损失函数可以求得损失值。损失值越大,代表模型的分类效果越差。 其中,通过Softmax分类器可以将分类结果映射成概率。 前向传播和反向传播 前向传播:输 阅读全文
posted @ 2023-04-13 15:16 林每天都要努力 阅读(76) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示