上一页 1 ··· 3 4 5 6 7 8 9 10 下一页
摘要: 阅读全文
posted @ 2021-08-15 11:55 鲍曼小学生 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 参考:https://blog.csdn.net/ibless/article/details/118610776?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPa 阅读全文
posted @ 2021-08-06 10:53 鲍曼小学生 阅读(609) 评论(0) 推荐(0) 编辑
摘要: 深度学习中网络的加速主要有如下的几种方式: 1)设计高效且小的网络,如MobileNet系列、shuffleNet系列、VoVNet等;2)从大的模型开始通过量化、剪裁、蒸馏等压缩技术实现网络的小型化;3)在inference阶段使用特殊的计算库实现计算的加速,比如MKL、TensorRT等;在上面 阅读全文
posted @ 2021-08-03 11:58 鲍曼小学生 阅读(687) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-08-03 11:06 鲍曼小学生 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 在pytorch进行模型保存的时候,一般有两种保存方式,一种是保存整个模型,另一种是只保存模型的参数。 torch.save(model.state_dict(), "my_model.pth") # 只保存模型的参数 torch.save(model, "my_model.pth") # 保存整个 阅读全文
posted @ 2021-08-03 09:43 鲍曼小学生 阅读(1540) 评论(0) 推荐(0) 编辑
摘要: torch.load()的作用:从文件加载用torch.save()保存的对象。 api: torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py 阅读全文
posted @ 2021-06-10 16:57 鲍曼小学生 阅读(4721) 评论(0) 推荐(0) 编辑
摘要: pytorch结果不可重现,大概率是随机数种子设置的问题。 Pytorch、Python、Numpy中的随机种子没有固定 数据预处理、增强方式采用了概率,若没有设置固定的随机种子,结果可能不同。例如常用数据增强库albumentations就采用了Python的随机产生器。 训练数据集被随机打乱了顺 阅读全文
posted @ 2021-06-10 16:28 鲍曼小学生 阅读(296) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-06-08 17:10 鲍曼小学生 阅读(397) 评论(0) 推荐(0) 编辑
摘要: __all__ = [<string>] 它是一个string元素组成的list变量,定义了当你使用 from <module> import * 导入某个模块的时候能导出的符号(这里代表变量,函数,类等)。 其实就是代码保护,限定本模块中只有哪些能被import。 举例:foo.py __all_ 阅读全文
posted @ 2021-06-03 19:30 鲍曼小学生 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 定义: 在模型中有两种需要被保存下来的参数:parameter和buffer 一种是反向传播需要被optimizer更新的,称之为 parameter(如权重等) 一种是反向传播不需要被optimizer更新,称之为 buffer(一些阈值之类的) 注册:torch.nn.register_para 阅读全文
posted @ 2021-06-03 10:43 鲍曼小学生 阅读(1390) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 下一页