摘要: 当用比较复杂的模型比如神经网络,去拟合数据时,很容易出现过拟合现象(训练集表现很好,测试集表现较差),这会导致模型的泛化能力下降,这时候,我们就需要使用正则化,降低模型的复杂度。正则化的目的是防止过拟合,减小误差。 在学习正则化之前先来回顾L1范数和L2范数。 L1范数:最小绝对值误差(LAE)。它 阅读全文
posted @ 2020-03-05 11:34 小娜子成长记 阅读(307) 评论(0) 推荐(0) 编辑
摘要: P=positive N=negative T=true F=false TP:true positive 你认为是正样本,事实上也被判定为正样本 TN:true negative 你认为是负样本,事实上也被判定为负样本 FP:false positive 你认为是正样本,事实上被判定为负样本 FN 阅读全文
posted @ 2020-03-04 10:07 小娜子成长记 阅读(1374) 评论(0) 推荐(0) 编辑
摘要: 1、信息量 “陈羽凡吸毒?!工作室不是刚辟谣了吗?哇!信息量好大!” 在生活中,极少发生的事情最容易引起吃瓜群众的关注。而经常发生的事情则不会引起注意,比如吃瓜群众从来不会去关系明天太阳会不会东边升起。 信息量的多少与事件发生概率的大小成反比。 对于已发生的事件i,其所提供的信息量为: 其中底数通常 阅读全文
posted @ 2020-02-28 19:13 小娜子成长记 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 通过 Inception Score 的公式我们知道,它并没有利用到真实数据集的信息,所有的计算都在生成的图片上计算获得。而 Mode Score 基于此做了改进: 也就是说,想要提高 Mode Score,除了 Inception Score 的两点,还要: 尽可能降低生成图片与数据集里的图片的标 阅读全文
posted @ 2020-02-28 18:47 小娜子成长记 阅读(768) 评论(0) 推荐(0) 编辑
摘要: 计算 IS 时只考虑了生成样本,没有考虑真实数据,即 IS 无法反映真实数据和样本之间的距离,IS 判断数据真实性的依据,源于 Inception V3 的训练集 ImageNet,在 Inception V3 的“世界观”下,凡是不像 ImageNet 的数据,都是不真实的,都不能保证输出一个 s 阅读全文
posted @ 2020-02-28 13:29 小娜子成长记 阅读(3668) 评论(0) 推荐(0) 编辑
摘要: 在GAN中,对于生成的图片,主要考虑俩方面的因素: 1、图片的清晰度 图片的清晰度不够一般是由于网络的表达能力不够,需要使用更好或者更复杂地网络结构; 2、图片的多样性 图片的多样性不足则很有可能是损失函数地选取或者训练方法出了问题,常见的有mode collapsing和mode dropping 阅读全文
posted @ 2020-02-28 12:14 小娜子成长记 阅读(1426) 评论(0) 推荐(0) 编辑
摘要: 转载 https://ptorch.com/docs/8/torchvision-datasets 阅读全文
posted @ 2020-02-24 21:23 小娜子成长记 阅读(348) 评论(0) 推荐(0) 编辑
摘要: torch.utils.data.DataLoader 数据加载器,结合了数据集和取样器在训练模型时使用到此函数,用来把训练数据分成多个小组,此函数每次抛出一组数据。直至把所有的数据都抛出。就是做一个数据的初始化。 torch.utils.data.DataLoader( dataset,#数据加载 阅读全文
posted @ 2020-02-24 16:05 小娜子成长记 阅读(1340) 评论(0) 推荐(0) 编辑
摘要: Pytorch中的tensor又包括CPU上的数据类型和GPU上的数据类型,一般GPU上的Tensor是CPU上的Tensor加cuda()函数得到。 一般系统默认是torch.FloatTensor类型。例如data = torch.Tensor(2,3)是一个2*3的张量,类型为FloatTen 阅读全文
posted @ 2020-02-24 15:54 小娜子成长记 阅读(8105) 评论(0) 推荐(0) 编辑
摘要: assert 可以实现如下功能: 保证参数之间的大小等约束关系; 函数执行过程中得到的中间结果是否符合预期; def gen_batch(batch_size, skip_window, num_skips): assert batch_size % num_skips == 0 assert nu 阅读全文
posted @ 2020-02-24 15:52 小娜子成长记 阅读(104) 评论(0) 推荐(0) 编辑