08 2020 档案

机器学习基础概述
摘要:实用特征:可观察且可量化 L2损失:平方误差 均方误差 (MSE) :指的是每个样本的平均平方损失。要计算 MSE,请求出各个样本的所有平方损失之和,然后除以样本数量 虽然 MSE 常用于机器学习,但它既不是唯一实用的损失函数,也不是适用于所有情形的最佳损失函数。 阅读全文

posted @ 2020-08-30 21:59 cltt 阅读(100) 评论(0) 推荐(0) 编辑

nn.Linear nn.Conv2d nn.BatchNorm2d
摘要:conv,BN,Linear conv:https://blog.csdn.net/Strive_For_Future/article/details/83240232 1)conv2d.weight shape=[输出channels,输入channels,kernel_size,kernel_s 阅读全文

posted @ 2020-08-29 18:10 cltt 阅读(547) 评论(0) 推荐(0) 编辑

pytorch 中tensor在CPU和GPU之间转换
摘要:1. CPU tensor转GPU tensor: cpu_imgs.cuda()2. GPU tensor 转CPU tensor: gpu_imgs.cpu()3. numpy转为CPU tensor: torch.from_numpy( imgs )4.CPU tensor转为numpy数据: 阅读全文

posted @ 2020-08-29 10:07 cltt 阅读(2926) 评论(0) 推荐(0) 编辑

pytorch tensor 的拼接和拆分
摘要:torch.catimport torch a=torch.randn(3,4) #随机生成一个shape(3,4)的tensort b=torch.randn(2,4) #随机生成一个shape(2,4)的tensor print("a:") print(a) print("b:") print( 阅读全文

posted @ 2020-08-28 21:17 cltt 阅读(1927) 评论(0) 推荐(0) 编辑

计算模型的Para和GFLOPs
摘要:import torch.nn as nn import torch import torch.nn.functional as F class FP_Conv2d(nn.Module): def __init__(self, input_channels, output_channels, ker 阅读全文

posted @ 2020-08-28 15:49 cltt 阅读(879) 评论(0) 推荐(0) 编辑

B bit
摘要:1B(byte)=8bit B:字节 bit:位(计算机表示数据最小的单位) B与bit 数据存储是以“字节”(Byte)为单位,数据传输大多是以“位”(bit,又名“比特”)为单位,一个位就代表一个0或1(即二进制),每8个位(bit,简写为b)组成一个字节(Byte,简写为B),是最小一级的信息 阅读全文

posted @ 2020-08-27 21:47 cltt 阅读(493) 评论(0) 推荐(0) 编辑

torch.nn.Sequential()搭建神经网络模型
摘要:一、第一种方式(可以配合一些条件判断语句动态添加) 模板——torch.nn.Sequential()的一个对象.add_module(name, module)。 name:某层次的名字;module:需要添加的子模块,如卷积、激活函数等等。 添加子模块到当前模块中。 可以通过 name 属性来访 阅读全文

posted @ 2020-08-25 10:40 cltt 阅读(1902) 评论(0) 推荐(0) 编辑

self参数 - __ init__ ()方法 super(Net, self).__init__()
摘要:self参数 self指的是实例Instance本身,在Python类中规定,函数的第一个参数是实例对象本身,并且约定俗成,把其名字写为self, 也就是说,类中的方法的第一个参数一定要是self,而且不能省略。关于self有三点是很重要的: self指的是实例本身,而不是类 self可以用this 阅读全文

posted @ 2020-08-24 11:17 cltt 阅读(4186) 评论(0) 推荐(1) 编辑

PyTorch 两大转置函数 transpose() 和 permute(),
摘要:在pytorch中转置用的函数就只有这两个 transpose() permute() transpose() torch.transpose(input, dim0, dim1, out=None) → Tensor 函数返回输入矩阵input的转置。交换维度dim0和dim1 参数: input 阅读全文

posted @ 2020-08-22 23:03 cltt 阅读(15093) 评论(0) 推荐(2) 编辑

nn.Conv2d卷积
摘要:二维卷积可以处理二维数据 nn.Conv2d(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True))参数: in_channel: 输入数据的通道数,例R 阅读全文

posted @ 2020-08-22 21:59 cltt 阅读(221) 评论(0) 推荐(0) 编辑

Python 字典(Dictionary) copy()方法
摘要:描述 Python 字典(Dictionary) copy() 函数返回一个字典的浅复制。 语法 copy()方法语法: dict.copy() 返回值 返回一个字典的浅复制。 实例 以下实例展示了 copy()函数的使用方法: dict1 = {'Name': 'Zara', 'Age': 7}; 阅读全文

posted @ 2020-08-22 12:35 cltt 阅读(290) 评论(0) 推荐(0) 编辑

pytorch的.item()方法
摘要:python的.item()用于将字典中每对key和value组成一个元组,并把这些元组放在列表中返回例如person={‘name’:‘lizhong’,‘age’:‘26’,‘city’:‘BeiJing’,‘blog’:‘www.jb51.net’} for key,value in pers 阅读全文

posted @ 2020-08-22 11:45 cltt 阅读(1336) 评论(0) 推荐(0) 编辑

PYthon 常用函数 (hasattr函数)
摘要:hasattr() 函数用于判断对象是否包含对应的属性。 hasattr 语法: hasattr(object, name) object -- 对象。 name -- 字符串,属性名。 如果对象有该属性返回 True,否则返回 False。 class Coordinate(): x = 10 y 阅读全文

posted @ 2020-08-22 11:24 cltt 阅读(396) 评论(0) 推荐(0) 编辑

nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization
摘要:torch.init https://pytorch.org/docs/stable/nn.html#torch-nn-init 1. 均匀分布 torch.nn.init.uniform_(tensor, a=0, b=1)服从~U(a,b)U(a, b)U(a,b) 2. 正太分布 torch. 阅读全文

posted @ 2020-08-22 10:48 cltt 阅读(1131) 评论(0) 推荐(0) 编辑

pytorch中model.modules()和model.children()的区别
摘要:model.modules()和model.children()均为迭代器,model.modules()会遍历model中所有的子层,而model.children()仅会遍历当前层。 # model.modules()类似于 [[1, 2], 3],其遍历结果为: [[1, 2], 3], [1 阅读全文

posted @ 2020-08-22 10:19 cltt 阅读(902) 评论(0) 推荐(0) 编辑

pytorch 读取和保存模型参数
摘要:只保存参数信息 加载 checkpoint = torch.load(opt.resume) model.load_state_dict(checkpoint) 保存 torch.save(self.state_dict(),file_path) 这而只保存了参数信息,读取时也只有参数信息,模型结构 阅读全文

posted @ 2020-08-22 10:14 cltt 阅读(2844) 评论(0) 推荐(1) 编辑

Variable详解
摘要:pytorch两个基本对象:Tensor(张量)和Variable(变量) 其中,tensor不能反向传播,variable可以反向传播。 tensor的算术运算和选取操作与numpy一样,一次你numpy相似的运算操作都可以迁移过来。 Variable variable是一种可以不断变化的变量,符 阅读全文

posted @ 2020-08-22 10:09 cltt 阅读(1983) 评论(0) 推荐(0) 编辑

state_dict详解
摘要:在pytorch中,torch.nn.Module模块中的state_dict变量存放训练过程中需要学习的权重和偏执系数,state_dict作为python的字典对象将每一层的参数映射成tensor张量,需要注意的是torch.nn.Module模块中的state_dict只包含卷积层和全连接层的 阅读全文

posted @ 2020-08-22 09:55 cltt 阅读(3825) 评论(0) 推荐(0) 编辑

Pytorch中的 model.train() 和 model.eval() 模式
摘要:model.train() :启用 BatchNormalization 和 Dropout model.eval() :不启用 BatchNormalization 和 Dropout 把模型model.eval()作用是为了固定BN和dropout层,使得偏置参数不随着发生变化。因为当batch 阅读全文

posted @ 2020-08-21 22:58 cltt 阅读(398) 评论(0) 推荐(0) 编辑

model.named_parameters() ,model.parameters() ,model.state_dict().items()
摘要:1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param for name, param in model.named_parameters(): print(name,param.requires_gra 阅读全文

posted @ 2020-08-21 22:42 cltt 阅读(774) 评论(0) 推荐(0) 编辑

model.to(device), model.cuda(), model.cpu(), DataParallel
摘要:Pytorch | Pytorch框架中模型和数据的gpu和cpu模式: model.to(device), model.cuda(), model.cpu(), DataParallel 转载自:https://blog.csdn.net/iLOVEJohnny/article/details/1 阅读全文

posted @ 2020-08-21 22:31 cltt 阅读(4773) 评论(0) 推荐(0) 编辑

ubuntu mv 出現无法获取'PyCharm' 的文件状态(stat): 没有那个文件或目录
摘要:sudo mv PyCharm 2019.1 /usr/mv: 无法获取'PyCharm' 的文件状态(stat): 没有那个文件或目录mv: 无法获取'2019.1' 的文件状态(stat): 没有那个文件或目录 原因:PyCharm 2019.1這個目錄名存在空格, 把空格刪去即可 阅读全文

posted @ 2020-08-21 19:42 cltt 阅读(12237) 评论(0) 推荐(0) 编辑

ubuntu 安裝QQ ,WEIXIN,百度WP等
摘要:參考鏈接:https://github.com/wszqkzqk/deepin-wine-ubuntu (1) git clone https://gitee.com/wszqkzqk/deepin-wine-for-ubuntu.git (2) 解压后切换到解压文件目录,在终端中运行(授予可执行权 阅读全文

posted @ 2020-08-21 18:45 cltt 阅读(171) 评论(0) 推荐(0) 编辑

深度学习基础--Bottleneck(瓶颈) Architectures
摘要:ResNet的核心内容之一,即“Deeper Bottleneck Architectures”(简称DBA),一言概之,bottleneck是一种特殊的残差结构。 Resnet论文里的原图如上(即Bottleneck V1 ),左图是普通的残差结构,右图是瓶颈结构。具体而言,block的输入和输出 阅读全文

posted @ 2020-08-19 22:15 cltt 阅读(2889) 评论(0) 推荐(0) 编辑

sql 函数
摘要:union SELECT DISTINCT `JGH` FROM `金课50`UNION 会自动去重SELECT DISTINCT `JGH` FROM `水课50`; SELECT DISTINCT `JGH` FROM `金课50`UNION ALL 不会自动去重SELECT DISTINCT 阅读全文

posted @ 2020-08-08 09:50 cltt 阅读(84) 评论(0) 推荐(0) 编辑

线性回归
摘要:线性回归变量选择方法 输入(回归)(Enter (Regression))一种变量选择过程,其中一个块中的所有变量在一个步骤中输入。Stepwise(逐步)在每一步,不在方程中的具有 F 的概率最小的自变量(对因变量贡献最大)被选入(如果该概率足够小)。对于已在回归方程中的变量,如果它们的 F 概率 阅读全文

posted @ 2020-08-06 20:45 cltt 阅读(1294) 评论(0) 推荐(0) 编辑

二元逻辑回归
摘要:参考链接:https://jingyan.baidu.com/article/597a064395087c312b524313.html 在回归分析模型 Y=β0+β1X+ε(一元线性回归模型)中,Y是被解释变量,就称为因变量。X是解释变量,称为自变量。表示为:因变量Y随自变量X的变化而变化。协变量 阅读全文

posted @ 2020-08-06 15:28 cltt 阅读(3151) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示