摘要:
阅读全文
摘要:
参考:https://blog.csdn.net/ibless/article/details/118610776?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPa 阅读全文
摘要:
深度学习中网络的加速主要有如下的几种方式: 1)设计高效且小的网络,如MobileNet系列、shuffleNet系列、VoVNet等;2)从大的模型开始通过量化、剪裁、蒸馏等压缩技术实现网络的小型化;3)在inference阶段使用特殊的计算库实现计算的加速,比如MKL、TensorRT等;在上面 阅读全文
摘要:
阅读全文
摘要:
在pytorch进行模型保存的时候,一般有两种保存方式,一种是保存整个模型,另一种是只保存模型的参数。 torch.save(model.state_dict(), "my_model.pth") # 只保存模型的参数 torch.save(model, "my_model.pth") # 保存整个 阅读全文
摘要:
torch.load()的作用:从文件加载用torch.save()保存的对象。 api: torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py 阅读全文
摘要:
pytorch结果不可重现,大概率是随机数种子设置的问题。 Pytorch、Python、Numpy中的随机种子没有固定 数据预处理、增强方式采用了概率,若没有设置固定的随机种子,结果可能不同。例如常用数据增强库albumentations就采用了Python的随机产生器。 训练数据集被随机打乱了顺 阅读全文
摘要:
__all__ = [<string>] 它是一个string元素组成的list变量,定义了当你使用 from <module> import * 导入某个模块的时候能导出的符号(这里代表变量,函数,类等)。 其实就是代码保护,限定本模块中只有哪些能被import。 举例:foo.py __all_ 阅读全文
摘要:
定义: 在模型中有两种需要被保存下来的参数:parameter和buffer 一种是反向传播需要被optimizer更新的,称之为 parameter(如权重等) 一种是反向传播不需要被optimizer更新,称之为 buffer(一些阈值之类的) 注册:torch.nn.register_para 阅读全文