上一页 1 2 3 4 5 6 7 ··· 43 下一页
摘要: ImportError: No module named tensorflow.compat.v1 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/sinat_34569355/articl 阅读全文
posted @ 2019-09-02 14:24 交流_QQ_2240410488 阅读(21518) 评论(0) 推荐(0) 编辑
摘要: https://www.jianshu.com/p/46eb3004beca 1 引言 我们都知道tensorflow框架可以使用tensorboard这一高级的可视化的工具,为了使用tensorboard这一套完美的可视化工具,未免可以将其应用到Pytorch中,用于Pytorch的可视化。这里特 阅读全文
posted @ 2019-09-02 10:29 交流_QQ_2240410488 阅读(12993) 评论(0) 推荐(0) 编辑
摘要: tensorboard --logdir runs 改为 tensorboard --logdir=D:\model\tensorboard\runs 重点 在网上看了很多方法后发现将原本链接中的计算机名改为localhost,即http://localhost:6006/后能成功解决该问题,显示结 阅读全文
posted @ 2019-08-30 17:47 交流_QQ_2240410488 阅读(8577) 评论(0) 推荐(0) 编辑
摘要: https://pytorch.org/get-started/previous-versions 可以直接下载文件 用 pip 直接在下载目录安装就可以了 阅读全文
posted @ 2019-08-30 17:14 交流_QQ_2240410488 阅读(691) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本文链接:https://blog.csdn.net/xiaoxifei/article/details/82735355最近刚刚发现一个非常好用的显示模型神器Netron https://git 阅读全文
posted @ 2019-08-30 15:30 交流_QQ_2240410488 阅读(1746) 评论(0) 推荐(0) 编辑
摘要: 本文介绍一个用于 PyTorch 代码的实用工具 TorchSnooper。作者是TorchSnooper的作者,也是PyTorch开发者之一。 GitHub 项目地址: https://github.com/zasdfgbnm/TorchSnooper 大家可能遇到这样子的困扰:比如说运行自己编写 阅读全文
posted @ 2019-08-30 15:26 交流_QQ_2240410488 阅读(1296) 评论(0) 推荐(0) 编辑
摘要: 本文链接:https://blog.csdn.net/program_developer/article/details/80867468“微信公众号” 1. 权重衰减(weight decay)L2正则化的目的就是为了让权重衰减到更小的值,在一定程度上减少模型过拟合的问题,所以权重衰减也叫L2正则 阅读全文
posted @ 2019-08-30 15:06 交流_QQ_2240410488 阅读(920) 评论(0) 推荐(0) 编辑
摘要: 在学习的过程中遇见了一个问题,就是当使用backward()反向传播时传入参数的问题: 这里的backward()中为什么需要传入参数Variable(t.ones(1, 10))呢?没有传入就会报错: 这个错误的意思就是梯度只能为标量(即一个数)输出隐式地创建 比如有一个例子是: 1) 返回: 此 阅读全文
posted @ 2019-08-30 13:48 交流_QQ_2240410488 阅读(369) 评论(0) 推荐(0) 编辑
摘要: autograd包是PyTorch中神经网络的核心部分,简单学习一下. autograd提供了所有张量操作的自动求微分功能. 它的灵活性体现在可以通过代码的运行来决定反向传播的过程, 这样就使得每一次的迭代都可以是不一样的. Variable类 autograd.Variable是这个包中的核心类. 阅读全文
posted @ 2019-08-30 12:33 交流_QQ_2240410488 阅读(483) 评论(0) 推荐(0) 编辑
摘要: PyTorch 关于多 GPUs 时的指定使用特定 GPU. PyTorch 中的 Tensor,Variable 和 nn.Module(如 loss,layer和容器 Sequential) 等可以分别使用 CPU 和 GPU 版本,均是采用 .cuda() 方法. 如: 采用 .cuda()  阅读全文
posted @ 2019-08-30 12:12 交流_QQ_2240410488 阅读(12892) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 43 下一页