随笔分类 -  pytorch

摘要:https://pytorch.org/get-started/previous-versions/ 阅读全文
posted @ 2022-03-20 19:10 Tomorrow1126 阅读(73) 评论(0) 推荐(0) 编辑
摘要:在~/.cache/torch_extensions/something 找到对应的lock文件 阅读全文
posted @ 2022-02-17 10:05 Tomorrow1126 阅读(238) 评论(0) 推荐(0) 编辑
摘要:最后重置代理 完美解决 git config --global --unset https.https://github.com.proxy git config --global --unset http.https://github.com.proxy 阅读全文
posted @ 2022-02-16 14:11 Tomorrow1126 阅读(647) 评论(0) 推荐(0) 编辑
摘要:试了好多方法,而且居然没谷歌到和我一样的问题!于是换了tensorflow版本,从1.14换成1.15,没解决,然后又换成2的gpu版本,解决! 然后代码是1的,用了compat.v1对代码进行修改,然后就跑通了。 阅读全文
posted @ 2022-02-10 20:25 Tomorrow1126 阅读(256) 评论(0) 推荐(0) 编辑
摘要:查看了一下paddle的版本是2.2.2,然后换成2.2.0就解决了! 下载网址https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/linux-pip.html 阅读全文
posted @ 2022-02-10 13:05 Tomorrow1126 阅读(653) 评论(0) 推荐(0) 编辑
摘要:今天遇到的问题,import torch找不到什么libsover,然后试了很多什么建立软链接都没用,于是把整个env都删了重新建 奇怪的是其他的环境可以成功导入,于是我换了python3.6->3.7,发现还是不行,此时用的是torch1.8.0,然后现在又换成1.8.1看看能否解决 真的很怪,有 阅读全文
posted @ 2022-02-09 14:25 Tomorrow1126 阅读(134) 评论(0) 推荐(0) 编辑
摘要:1 阅读全文
posted @ 2022-02-09 11:15 Tomorrow1126 阅读(253) 评论(0) 推荐(0) 编辑
摘要:原因:之前安装包缓存未清理,导致安装包不能正常安装。 解决方法: conda clean --all所有安装包的缓存都被清理,也可以只清理特定的 阅读全文
posted @ 2022-02-09 11:13 Tomorrow1126 阅读(2448) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/qq_38677322/article/details/109696077 参考了上面的博客,关键是找到lock文件的位置并把它删掉。 不会linux的调试,于是用了笨方法找到了文件的位置,一般是在/home/用户名/.cache/torch_extens 阅读全文
posted @ 2022-02-08 15:01 Tomorrow1126 阅读(1236) 评论(0) 推荐(0) 编辑
摘要:原因:我直接用conda install pytorch安装的是cpu版本的 解决方法:去pytorch官网,找对应的cuda和pytorch版本,按照官网给的指令安装 (服务器cuda11.2没有对应的版本) https://pytorch.org/get-started/previous-ver 阅读全文
posted @ 2022-02-08 11:38 Tomorrow1126 阅读(546) 评论(0) 推荐(0) 编辑
摘要:Varibale包含三个属性: data:存储了Tensor,是本体的数据 grad:保存了data的梯度,本事是个Variable而非Tensor,与data形状一致 grad_fn:指向Function对象,用于反向传播的梯度计算之用 Variable和Tensor之间的区别:1. Variab 阅读全文
posted @ 2022-02-05 15:17 Tomorrow1126 阅读(204) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/PanYHHH/article/details/107361827 一、 第一个是将梯度清零,因为训练的过程通常使用mini-batch方法,所以如果不将梯度清零的话,梯度会与上一个batch的数据相关,因此该函数要写在反向传播和梯度下降之前。(训练的时候 阅读全文
posted @ 2022-01-29 16:03 Tomorrow1126 阅读(1285) 评论(0) 推荐(0) 编辑
摘要:torch.flatten(input, start_dim, end_dim). 举例:一个tensor 3*2* 2 start_dim=1 output 3*4 start_dim=0 end_dim=1. 6*2 如果没有后面两个参数直接变为一维的 阅读全文
posted @ 2022-01-29 14:43 Tomorrow1126 阅读(83) 评论(0) 推荐(0) 编辑
摘要:https://www.cnblogs.com/wanghui-garcia/p/10677071.html 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度造成影响,torch.tensor.detach()和t 阅读全文
posted @ 2022-01-29 14:29 Tomorrow1126 阅读(76) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/york1996/article/details/81949843 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3], 阅读全文
posted @ 2022-01-29 14:14 Tomorrow1126 阅读(56) 评论(0) 推荐(0) 编辑
摘要:pandas 中 inplace 参数在很多函数中都会有,它的作用是:是否在原对象基础上进行修改 ​ inplace = True:不创建新的对象,直接对原始对象进行修改; ​ inplace = False:对数据进行修改,创建并返回新的对象承载其修改结果。 默认是False,即创建新的对象进行修 阅读全文
posted @ 2022-01-24 19:50 Tomorrow1126 阅读(448) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示