01 2022 档案

摘要:一般就是多种不同模型+迁移学习+一大堆正则化方式+各种数据增广+简单的TTA这个步骤 模型包括resnet模型及其变种等,优化算法一般用Adam和SGD,学习率就主要是用Cosine余弦退火函数;数据增广常用的有翻转、平移、修改色调、图片重叠等 提升精度思路:根据数据挑选增强,使用新模型、新优化算法 阅读全文
posted @ 2022-01-28 20:51 {hunter}ZY 阅读(75) 评论(0) 推荐(0) 编辑
摘要:一开始是在jupyter notebook上跑pytorch相关函数,每次使用dataloader函数,如果我把num_workers设置为大于0的数,一到迭代dataloader那里就不运行了;但jupyter notebook也不报错,就那么一直卡着,后来在网上查这个问题的解决方案,也基本没有用 阅读全文
posted @ 2022-01-26 20:40 {hunter}ZY 阅读(1476) 评论(0) 推荐(0) 编辑
摘要:首先是对数据增强的调整:Pytorch 中的数据增强方式最全解释 - 云+社区 - 腾讯云 (tencent.com) 从 这些方法里选择自己需要的; 对学习率的调整:PyTorch学习之六个学习率调整策略 - Shaw_喆宇 - 博客园 (cnblogs.com) 常用且比较有效的是等间隔调整学习 阅读全文
posted @ 2022-01-23 18:55 {hunter}ZY 阅读(184) 评论(0) 推荐(0) 编辑
摘要:我的是torch和torchvision版本不对应,这张图是现在的torch、torchvision、python适配的版本,按照这张图的版本从新下一次torch和torchvision 阅读全文
posted @ 2022-01-22 23:39 {hunter}ZY 阅读(4183) 评论(0) 推荐(0) 编辑
摘要:这个原因是pytorch不支持CUDA, 可以先输入 import torchprint(torch.cuda.is_available()) 如果输入为false则打开cmd,输入nvidia-smi查看cuda的版本,之后去Previous PyTorch Versions | PyTorch找 阅读全文
posted @ 2022-01-22 23:34 {hunter}ZY 阅读(4084) 评论(0) 推荐(0) 编辑
摘要:import os, sys, glob, shutil, json import cv2 from PIL import Image import numpy as np import torch from torch.utils.data.dataset import Dataset impor 阅读全文
posted @ 2022-01-22 23:28 {hunter}ZY 阅读(78) 评论(0) 推荐(0) 编辑
摘要:#!/usr/bin/env python # coding: utf-8 # In[1]: import cv2 as cv import numpy as np from IPython.display import Image # In[2]: fname = "11" ftype = ".j 阅读全文
posted @ 2022-01-21 19:12 {hunter}ZY 阅读(35) 评论(0) 推荐(0) 编辑
摘要:首先是要导入torch和torchsivion from torch import nn from torch.nn import Sequential,Conv2d,MaxPool2d,Flatten,Linear 正常情况下使用要自己创建一个类,也就是神经网络 class ZY(torch.nn 阅读全文
posted @ 2022-01-20 23:08 {hunter}ZY 阅读(51) 评论(0) 推荐(0) 编辑
摘要:循环神经网络会出现梯度消失和梯度爆炸的情况 对他的改进有俩变种:LSTM(长短时神经网络)、GRU 一般都用LSTM,其原理: 阅读全文
posted @ 2022-01-20 11:36 {hunter}ZY 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-01-20 10:05 {hunter}ZY 阅读(23) 评论(0) 推荐(0) 编辑
摘要:Lenet5奠定了最基础的卷积神经网络结构:卷积、池化、卷积、池化、全连接、全连接、输出 AlexNet使用了ReLU激活函数,可以有效地避免梯度消失,使用了数据增强(图片旋转、平移、遮挡等),使用了dropout(随机掐死部分神经元) VGGnet主要就有VGG16和VGG19,VGG19比16多 阅读全文
posted @ 2022-01-18 15:13 {hunter}ZY 阅读(91) 评论(0) 推荐(0) 编辑
摘要:几种优化算法(一阶的,平常也一一般用一阶的): 阅读全文
posted @ 2022-01-17 16:40 {hunter}ZY 阅读(106) 评论(0) 推荐(0) 编辑
摘要:非线性的激活函数: 每次卷积操作都可以认为是一个神经元 深度学习包括四大基础设施:数据、算力、算法、框架 激活函数(把神经元的输入线性求和后用非线性函数激活,从而给神经网络带来非线性 )的选择: sigmoid函数又称挤压函数,其可解释性好。但由于其饱和性(x趋于正无穷接近于1,趋于负无穷接近于0) 阅读全文
posted @ 2022-01-16 14:06 {hunter}ZY 阅读(120) 评论(0) 推荐(0) 编辑
摘要:卷积神经网络主要包括卷积、池化、全连接三个步骤 卷积可以认为是特征的提取,池化就是吧卷积后的结果大而化之,变小,之后再进行卷积、池化、。。。。卷积、池化,全连接 池化引入了平移不变性,减少参数量,防止过拟合 关于卷积和的计算公式,其中stride是步长 阅读全文
posted @ 2022-01-15 18:18 {hunter}ZY 阅读(101) 评论(0) 推荐(0) 编辑
摘要:Python数据预处理(sklearn.preprocessing)—归一化(MinMaxScaler),标准化(StandardScaler),正则化(Normalizer, normalize) Python enumerate() 函数将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索 阅读全文
posted @ 2022-01-09 23:13 {hunter}ZY 阅读(460) 评论(0) 推荐(0) 编辑
摘要:seaborn—sns.heatmap绘制热力图:seaborn—sns.heatmap绘制热力图_柳杰的博客-CSDN博客 heatmap(热力图)是识别预测变量与目标变量相关性的方法,同时,也是发现变量间是否存在多重共线性的好方法。 pandas相关系数-DataFrame.corr()参数详解 阅读全文
posted @ 2022-01-07 19:41 {hunter}ZY 阅读(253) 评论(0) 推荐(0) 编辑
摘要:#numpy随机数据生成API import numpy as np np.random.rand(3,2,2) #randn生成正态分布,默认生成服从(0,1)的正态分布,如果需要服从N(μ,σ2)的正态分布, #只需要在randn上每个生成的值x上做变换σx+μ即可,例如:例如:2*np.ran 阅读全文
posted @ 2022-01-05 20:20 {hunter}ZY 阅读(891) 评论(0) 推荐(0) 编辑
摘要:pip上安装不了,可以去Python Extension Packages for Windows - Christoph Gohlke (uci.edu)这里找自己需要安装的东西,像我安装不了xgboost,就在这里搜索xgboost 找到符合自己python版本(pip支持的文件名和版本)的wh 阅读全文
posted @ 2022-01-04 23:05 {hunter}ZY 阅读(156) 评论(0) 推荐(0) 编辑
摘要:求导的自变量用x1表示标量,x2表示n维向量,X表示m×n维度的矩阵,求导的因变量用y1表示标量,y2表示m维向量,Y表示p×q维度的矩阵 分子布局 自变量\因变量 标量y1 向量y2 矩阵Y x1 普通求导,略 ∂y2/∂x1 分子布局:m维列向量(默认布局) 分母布局:m维行向量 ∂Y/∂x1 阅读全文
posted @ 2022-01-03 20:05 {hunter}ZY 阅读(55) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示