会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
平凡之上
博观而约取,厚积而薄发! 守得云开见月明。
博客园
首页
新随笔
新文章
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
下一页
2021年11月28日
11/29日学习
摘要: anaconda命令使用 conda update -n base conda #更新到最新版本的condaconda create -n xxx python3.7 #创建名为python3.7的xxx虚拟环境conda remove -n xxx --all #删除名为xxx的虚拟环境conda
阅读全文
posted @ 2021-11-28 21:29 平凡之上
阅读(25)
评论(0)
推荐(0)
编辑
2021年11月27日
11/27日学习
摘要: #P30-P33完结 利用GPU来训练 方法1: 思路:找到网络模型、数据(输入,标注)、损失函数。然后调用.cuda() 然后返回 方法2: Device=torch.device("CPU") torch.device("cuda:0") #指定显卡 .to(device)
阅读全文
posted @ 2021-11-27 19:09 平凡之上
阅读(23)
评论(0)
推荐(0)
编辑
11/26日27日学习2
摘要: #P27-P29 完整的模型训练套路 思路步骤: 准备数据集→DataLoader加载数据集→创建网络模型→创建损失函数→设置优化器→设置训练的一些参数 →开始训练步骤:↓for data in train_dataloader ↓loss计算损失值 ↓优化器优化模型 → ↓with torch.n
阅读全文
posted @ 2021-11-27 16:21 平凡之上
阅读(17)
评论(0)
推荐(0)
编辑
2021年11月26日
11/26日学习1
摘要: #P23-P26 损失函数与反向误差 Loss function作用:1、计算实际输出和目标之间的差距 2、为我们更新输出提供一定的依据(反向传播) #根据需要去选择使用,关注函数的输入和输出。 1.nn.L1Loss() 2.nn.MSELoss() 3.nn.CrossEntropyLoss()
阅读全文
posted @ 2021-11-26 20:45 平凡之上
阅读(20)
评论(0)
推荐(0)
编辑
2021年11月23日
11/23日学习
摘要: #P22 神经网络-搭建小实战和Sequential的使用 cifar10 model structure 全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到
阅读全文
posted @ 2021-11-23 20:12 平凡之上
阅读(23)
评论(0)
推荐(0)
编辑
2021年11月22日
11/22日学习
摘要: #P19-P21 神经网络-非线性激活 torch.nn.ReLU 进行泛化 inplace=False,则不保留原值。=True,则保留原值 线性层 linear Applies a linear transformation to the incoming data
阅读全文
posted @ 2021-11-22 18:40 平凡之上
阅读(12)
评论(0)
推荐(0)
编辑
2021年11月21日
1、java语言概述
摘要: #P15-P31 11/21日 P32-P39 11/29日 命令行删文件使用del 删目录使用rd java特点一、面向对象。两个基本概念:类、对象。三大特性:封装、继承、多态。 特点二、三。健壮性、跨平台性。 1、JDK:java开发工具包。JRE:java运行环境。 使用JDK的开发工具完成的
阅读全文
posted @ 2021-11-21 22:05 平凡之上
阅读(18)
评论(0)
推荐(0)
编辑
11/21日学习
摘要: #P18-P19 神经网络-卷积层 torch.nn→Convolution Layers 卷积操作,关注函数参数,理解参数意义 -最大池化的使用 →Pooling Layers
阅读全文
posted @ 2021-11-21 18:53 平凡之上
阅读(13)
评论(0)
推荐(0)
编辑
2021年11月20日
11/20日学习
摘要: #P16-P17 神经网络的基本骨架-nn.Module使用 卷积操作
阅读全文
posted @ 2021-11-20 21:40 平凡之上
阅读(13)
评论(0)
推荐(0)
编辑
2021年11月19日
11/19日学习
摘要: #P14-P15 torchvision中数据集的使用 DataLoader的使用 batch_size:每批次抓取的数据个数。drop_last:如果DataSet大小未被批处理大小可分离,则将其设置为true以删除最后的不完整批次。如果DataSet的尺寸不可分可于批次大小,则最后批处理将更小。
阅读全文
posted @ 2021-11-19 11:28 平凡之上
阅读(17)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
7
8
下一页