摘要: torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。 为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。 要构建一个优化器optimiz 阅读全文
posted @ 2020-11-04 11:13 崔可爱的胖肉肉 阅读(156) 评论(0) 推荐(0) 编辑
摘要: device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") 这段代码一般写在读取数据之前,torch.device代表将torch.Tensor分配到的设备的对象。torch.device包含一个设备类型(‘cpu’ 阅读全文
posted @ 2020-11-04 11:05 崔可爱的胖肉肉 阅读(3595) 评论(0) 推荐(0) 编辑
摘要: nn.ReLU与nn.LeakyReLU的区别 因为之前从未接触过这方面,直接接手GAN,有点吃力,如有明显漏洞,请指正,我会感激不尽。 昨晚查阅了ReLU的含义,结果今天发现高老师给的代码中又有一个LeakyReLU,所以今天这个小白贴来对比下两者: 下图是ReLU、Leaky ReLU、PReL 阅读全文
posted @ 2020-11-04 10:35 崔可爱的胖肉肉 阅读(2878) 评论(0) 推荐(0) 编辑
摘要: 因为之前没有学过任何有关机器学习的知识,直接看GAN的代码有点难,所以准备开这个小白系列,记录下自己遇到的各种小知识点,如果理解错了,请见笑,纯小白。 ReLU是torch.nn里面的一个函数,格式为:nn.ReLU(inplace=True) 参数inplace=True:当inplace为Tru 阅读全文
posted @ 2020-11-03 16:46 崔可爱的胖肉肉 阅读(378) 评论(0) 推荐(0) 编辑
摘要: 之前一直使用pycharm的破解版,不稳定还老是闪退,由于正式开始给老板干活,于是今天就申请了一个教育免费版,结果登录时提示错误信息 经查阅发现,是需要将之前破解版的包删掉。 方法如下: 第一步:打开idea主界面。 第二步:在Help列表中找到 Edit Custom VM Options... 阅读全文
posted @ 2020-11-01 11:09 崔可爱的胖肉肉 阅读(5794) 评论(0) 推荐(0) 编辑
摘要: 人生第一次使用博客,希望能坚持下来分享自己的小白学习经历吧。 没有灿烂的文笔,高考刚刚过百的语文成绩,充分展示了本人没有什么华丽的文采,就用直男的语言来分享吧。 阅读全文
posted @ 2020-10-30 10:01 崔可爱的胖肉肉 阅读(52) 评论(0) 推荐(0) 编辑