随笔分类 -  PyTorch

流行的深度学习框架
import torch OSError: [WinError 126] 找不到指定的模块。
摘要:import torch 报错,信息如下: OSError: [WinError 126] 找不到指定的模块。 Error loading "C:\Anaconda3\envs\python-3.11\Lib\site-packages\torch\lib\shm.dll" or one of it 阅读全文

posted @ 2024-10-16 20:40 那抹阳光1994 阅读(728) 评论(0) 推荐(0) 编辑

pytorch中网络参数的默认精度
摘要:pytorch默认使用单精度float32训练模型,其主要原因为:使用float16训练模型,模型效果会有损失,而使用double(float64)会有2倍的内存压力,且不会带来太多的精度提升,因此默认使用单精度float32训练模型。 由于输入类型不一致导致报错: PyTorch:expected 阅读全文

posted @ 2022-06-27 11:29 那抹阳光1994 阅读(3612) 评论(0) 推荐(0) 编辑

Fréchet距离度量
摘要:Fréchet distance Fréchet distance经常被用于描述路径相似性。 Fréchet distance(弗雷歇距离)是法国数学家Maurice René Fréchet在1906年提出的一种路径空间相似形描述( 此外还在这篇论文里定义了 度量空间),这种描述同时还考虑进路径空 阅读全文

posted @ 2022-01-29 20:15 那抹阳光1994 阅读(7458) 评论(0) 推荐(1) 编辑

pytorch中backward()函数的gradient参数作用
摘要:若是关于计算图中的leaves变量求导的输出变量是一个标量,那么gradient默认为None,或者指定为“torch.Tensor([1.0])” 若是关于计算图中的leaves求导的输出变量是一个向量,那么gradient是不能缺省的,gradient是和该输出向量同维度的tensor。 假设计 阅读全文

posted @ 2021-12-19 22:09 那抹阳光1994 阅读(573) 评论(0) 推荐(0) 编辑

PyTorch中Tensor的维度变换
摘要:对于 PyTorch 的基本数据对象 Tensor (张量),在处理问题时,需要经常改变数据的维度,以便于后期的计算和进一步处理,本文旨在列举一些维度变换的方法并举例,方便大家查看。 维度查看:torch.Tensor.size() 查看当前 tensor 的维度 举个例子: >>> import 阅读全文

posted @ 2021-08-12 15:18 那抹阳光1994 阅读(847) 评论(0) 推荐(0) 编辑

pytorch 生成单位张量torch.eye
摘要:torch.eye(n, m=None, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False) → Tensor Returns a 2-D tensor with ones on the d 阅读全文

posted @ 2021-08-11 09:11 那抹阳光1994 阅读(409) 评论(0) 推荐(0) 编辑

pytorch Tensor.expand()张量扩张
摘要:Tensor.expand(*sizes) → 张量 返回自张量的新视图,单例维度扩展到更大的尺寸。 传递 -1 作为维度的大小意味着不更改该维度的大小。 Tensor 也可以扩展到更多的维度,新的维度会附加在前面。 对于新维度,大小不能设置为 -1。 扩展张量不会分配新的内存,而只会在现有张量上创 阅读全文

posted @ 2021-08-11 09:09 那抹阳光1994 阅读(5579) 评论(0) 推荐(0) 编辑

pytorch persistent_workers
摘要:DataLoader中的persistent_workers参数 torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, co 阅读全文

posted @ 2021-07-02 21:53 那抹阳光1994 阅读(5683) 评论(0) 推荐(0) 编辑

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation
摘要:RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation 阅读全文

posted @ 2021-06-28 10:56 那抹阳光1994 阅读(647) 评论(1) 推荐(0) 编辑

OSError: [WinError 1455] 页面文件太小,无法完成操作。 Error loading "C:\Anaconda3\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll"
摘要:最近新配了一个主机(开心😊) 配置: CPU Intel(R) Core(TM) i7-10700KF CPU @ 3.80GHz 3.79 GHz 主板 微星z490 S01 内存 金士顿 (Kingston) 16GB(8G×2) DDR4 3200 台式机内存条 骇客神条 Fury雷电系列 阅读全文

posted @ 2021-06-26 16:13 那抹阳光1994 阅读(13353) 评论(0) 推荐(0) 编辑

Pytorch中出现的奇怪错误
摘要:1. Pycharm error Process finished with exit code -1073740791 (0xC0000409) 2. RuntimeError: CUDA error: an illegal memory access was encountered 阅读全文

posted @ 2021-06-11 15:56 那抹阳光1994 阅读(143) 评论(0) 推荐(0) 编辑

Pytorch遇到的错误解决方法
摘要:Pytorch遇到的错误解决方法 1. pytorch运行错误:RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR 解决方法: 代码中添加: torch.cuda.set_device(0) 2. 训练RNN网络loss出现Nan解决办法 ( 阅读全文

posted @ 2021-06-11 15:45 那抹阳光1994 阅读(2292) 评论(0) 推荐(0) 编辑

训练RNN网络loss出现Nan解决办法
摘要:(1) 梯度爆炸的原因可以通过梯度裁决解决 GRAD_CLIP = 5 loss.backward() torch.nn.utils.clip_grad_norm_(model.parameters(), GRAD_CLIP) optimizer.step() (2)testModel和evalua 阅读全文

posted @ 2021-06-11 15:37 那抹阳光1994 阅读(579) 评论(0) 推荐(0) 编辑

RuntimeError: CUDA error: an illegal memory access was encountered
摘要:莫名其妙的o(╯□╰)o 阅读全文

posted @ 2021-06-11 14:40 那抹阳光1994 阅读(1658) 评论(0) 推荐(0) 编辑

Process finished with exit code -1073740791 (0xC0000409)
摘要:再次遇到Process finished with exit code -1073740791 (0xC0000409)问题 …… 可能是pycharm内存设置的问题? python中关于Process finished with exit code -1073740791 (0xC0000409) 阅读全文

posted @ 2021-06-10 17:27 那抹阳光1994 阅读(4397) 评论(1) 推荐(0) 编辑

Pytorch转置卷积具体计算过程
摘要:Pytorch 转置卷积nn.ConvTranspose2d 参数设置总结 PyTorch中的转置卷积详解 阅读全文

posted @ 2021-04-16 09:48 那抹阳光1994 阅读(295) 评论(0) 推荐(0) 编辑

pytorch训练多分支网络
摘要:一个多分支输出网络(一个Encoder,多个Decoder) 我们期望每个分支的损失L_i分别对各自的参数进行优化,而共享参数部分采用各分支损失之和Sum(L_i)进行优化。 在pytorch中是默认支持这种操作的,也就是我们可以分别计算出各分支的loss,然后直接把他们相加即可。(参考上面pyto 阅读全文

posted @ 2021-04-08 23:00 那抹阳光1994 阅读(8360) 评论(2) 推荐(1) 编辑

pytorch单机多卡并行计算示例
摘要:一个简单的例子。 注意: os.environ['MASTER_ADDR'] = 'xxx.xx.xx.xxx' # 这里填写电脑的IP地址 os.environ['MASTER_PORT'] = '29555' # 空闲端口 这两个参数似乎必须提前给出,选择的初始化方法为init_method=" 阅读全文

posted @ 2021-04-01 16:24 那抹阳光1994 阅读(1284) 评论(0) 推荐(0) 编辑

pytorch 分布式训练 distributed parallel 笔记
摘要:pytorch 分布式训练 distributed parallel 笔记 阅读全文

posted @ 2021-04-01 15:59 那抹阳光1994 阅读(198) 评论(0) 推荐(0) 编辑

pytorch保存模型并记录最优模型
摘要:# https://github.com/tczhangzhi/pytorch-distributed/blob/master/distributed.py # remember best acc@1 and save checkpoint is_best = acc1 > best_acc1 be 阅读全文

posted @ 2021-04-01 14:44 那抹阳光1994 阅读(3496) 评论(0) 推荐(0) 编辑

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示