上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 36 下一页

2020年5月18日

PyTorch模型加载与保存的最佳实践

摘要: 一般来说PyTorch有两种保存和读取模型参数的方法。但这篇文章我记录了一种最佳实践,可以在加载模型时避免掉一些问题。 传统方案: 第一种方案是保存整个模型: torch.save(model_object, 'model.pth') 第二种方法是保存模型网络参数: torch.save(model 阅读全文

posted @ 2020-05-18 19:54 那抹阳光1994 阅读(1064) 评论(0) 推荐(0) 编辑

2020年5月17日

用变分推断统一理解深度生成模型

摘要: 理解:用变分推断统一理解深度生成模型(VAE、GAN、AAE、ALI(BiGAN)) https://blog.csdn.net/u013972559/article/details/85244749 https://kexue.fm/archives/5716 https://zhuanlan.z 阅读全文

posted @ 2020-05-17 11:30 那抹阳光1994 阅读(235) 评论(0) 推荐(0) 编辑

pytorch Windows常见问题汇总

摘要: pytorch Windows常见问题汇总 https://ptorch.com/news/166.html#usage-multiprocessing 阅读全文

posted @ 2020-05-17 11:02 那抹阳光1994 阅读(261) 评论(0) 推荐(0) 编辑

深度卷积网络中如何进行上采样?

摘要: 深度学习的许多应用中需要将提取的特征还原到原图像大小,如图像的语义分割、生成模型中的图像生成任务等。通过卷积和池化等技术可以将图像进行降维,因此,一些研究人员也想办法恢复原分辨率大小的图像,特别是在语义分割领域应用很成熟。 常见的上采样方法有双线性插值、转置卷积、上采样(unsampling)、上池 阅读全文

posted @ 2020-05-17 11:01 那抹阳光1994 阅读(15936) 评论(0) 推荐(2) 编辑

2020年5月15日

权重衰减(weight decay), L2正则

摘要: 正则化方法:防止过拟合,提高泛化能力 避免过拟合的方法有很多:early stopping、数据集扩增(Data augmentation)、正则化(Regularization)包括L1、L2(L2 regularization也叫weight decay),dropout。 权重衰减(weigh 阅读全文

posted @ 2020-05-15 17:47 那抹阳光1994 阅读(2269) 评论(0) 推荐(1) 编辑

python中的super().__init__()

摘要: 子类构造函数调用super().init() class Person: def __init__(self, name = 'Person'): self.name = name class Puple(Person): # 直接继承Person,可调用name pass class Puple_ 阅读全文

posted @ 2020-05-15 16:11 那抹阳光1994 阅读(6025) 评论(0) 推荐(0) 编辑

2020年3月31日

随机变量的间独立性及其传播

摘要: 条件独立定义 这种独立性不能简单地进行传播 类似的 阅读全文

posted @ 2020-03-31 12:38 那抹阳光1994 阅读(359) 评论(0) 推荐(0) 编辑

2019年12月26日

卡尔曼滤波、扩展卡尔曼滤波、无迹卡尔曼滤波以及粒子滤波原理

摘要: https://blog.csdn.net/drilistbox/article/details/80506249 机器学习方法原理及编程实现--07.隐马尔科夫及其在卡尔曼滤波中的应用 https://blog.csdn.net/drilistbox/article/details/7988671 阅读全文

posted @ 2019-12-26 14:57 那抹阳光1994 阅读(495) 评论(0) 推荐(0) 编辑

2019年11月28日

贝叶斯推断中的后验概率、似然函数、先验概率以及边际似然定义(转)

摘要: 全部定义 边际似然 marginal likelihood (ML) 边际似然计算算法实例 《Marginal likelihood calculation with MCMC methods 》 参考Haasteren R V . Marginal Likelihood Calculation w 阅读全文

posted @ 2019-11-28 15:40 那抹阳光1994 阅读(2207) 评论(0) 推荐(0) 编辑

2019年11月26日

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解(转)

摘要: 声明:本文为原创文章,发表于nebulaf91的csdn博客。欢迎转载,但请务必保留本信息,注明文章出处。 本文作者: nebulaf91 本文原始地址:http://blog.csdn.net/u011508640/article/details/72815981 频率学派与贝叶斯派 在说极大似然 阅读全文

posted @ 2019-11-26 14:15 那抹阳光1994 阅读(2003) 评论(0) 推荐(0) 编辑

上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 36 下一页

导航