上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 64 下一页
摘要: 使用的是命令pip install bcolz 换成使用conda就成功安装了: 阅读全文
posted @ 2019-05-24 17:12 慢行厚积 阅读(1268) 评论(0) 推荐(0) 编辑
摘要: 当你的环境中有多个版本时,比如有python3和python2,指定在相应环境下安装包的方法是: pip的运行方法有多种:1.根据-m参数按照模块运行pip,方法同运行一般的py文件。 2.运行相应的pip程序 错误: 原因:mysql新版本默认不支持group by语句 解决办法: 首先改@@GL 阅读全文
posted @ 2019-05-23 19:06 慢行厚积 阅读(586) 评论(0) 推荐(0) 编辑
摘要: 返回: 解决: 在代码中添加: 阅读全文
posted @ 2019-05-23 19:06 慢行厚积 阅读(3727) 评论(0) 推荐(1) 编辑
摘要: 参考:https://blog.csdn.net/liuxiao214/article/details/81037416 归一化层,目前主要有这几个方法,Batch Normalization(2015年)、Layer Normalization(2016年)、Instance Normalizat 阅读全文
posted @ 2019-05-21 15:26 慢行厚积 阅读(79275) 评论(1) 推荐(5) 编辑
摘要: 参考:https://pytorch.org/docs/master/optim.html#how-to-adjust-learning-rate torch.optim.lr_scheduler提供了几种方法来根据迭代的数量来调整学习率 自己手动定义一个学习率衰减函数: def adjust_le 阅读全文
posted @ 2019-05-20 20:53 慢行厚积 阅读(54908) 评论(10) 推荐(5) 编辑
摘要: 参考:http://theorangeduck.com/page/neural-network-not-working My Neural Network isn't working! What should I do? 因此,你正在开发深度学习的下一个重大突破,但你遇到了一个不幸的挫折:你的神经网 阅读全文
posted @ 2019-05-20 15:14 慢行厚积 阅读(1468) 评论(0) 推荐(0) 编辑
摘要: 损失函数的基本用法: 得到的loss结果已经对mini-batch数量取了平均值 1.BCELoss(二分类) 创建一个衡量目标和输出之间二进制交叉熵的criterion unreduced loss函数(即reduction参数设置为'none')为: N表示batch size,xn为输出,yn 阅读全文
posted @ 2019-05-14 18:06 慢行厚积 阅读(65727) 评论(3) 推荐(9) 编辑
摘要: 解决办法: 在代码中添加两行 阅读全文
posted @ 2019-05-01 08:48 慢行厚积 阅读(3031) 评论(0) 推荐(1) 编辑
摘要: 参考:https://github.com/chenyuntc/pytorch-book/tree/v1.0/chapter7-GAN生成动漫头像 GAN解决了非监督学习中的著名问题:给定一批样本,训练一个系统能够生成类似的新样本 生成对抗网络的网络结构如下图所示: 生成器(generator):输 阅读全文
posted @ 2019-05-01 08:47 慢行厚积 阅读(9791) 评论(2) 推荐(0) 编辑
摘要: 参考:https://www.jianshu.com/p/aee6a3d72014 再加载预训练模型时,最好指定map_location。因为如果程序之前在GPU上运行,那么模型就会被存为torch.cuda.Tensor,这样加载时会默认将数据加载至显存。如果运行该程序的计算机中没有GPU,加载就 阅读全文
posted @ 2019-04-30 14:23 慢行厚积 阅读(1883) 评论(0) 推荐(0) 编辑
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 64 下一页