上一页 1 2 3 4 5 6 7 8 9 10 ··· 12 下一页
摘要: 文章目录: 1 模型三要素 三要素其实很简单 必须要继承nn.Module这个类,要让PyTorch知道这个类是一个Module 在__init__(self)中设置好需要的组件,比如conv,pooling,Linear,BatchNorm等等 最后在forward(self,x)中用定义好的组件 阅读全文
posted @ 2020-09-03 00:09 忽逢桃林 阅读(1800) 评论(0) 推荐(0) 编辑
摘要: 文章目录: 1 Dataset基类 PyTorch 读取其他的数据,主要是通过 Dataset 类,所以先简单了解一下 Dataset 类。在看很多PyTorch的代码的时候,也会经常看到dataset这个东西的存在。Dataset类作为所有的 datasets 的基类存在,所有的 datasets 阅读全文
posted @ 2020-09-01 10:43 忽逢桃林 阅读(2791) 评论(0) 推荐(0) 编辑
摘要: 文章目录: 1 任务 首先说下我们要搭建的网络要完成的学习任务: 让我们的神经网络学会逻辑异或运算,异或运算也就是俗称的“相同取0,不同取1” 。再把我们的需求说的简单一点,也就是我们需要搭建这样一个神经网络,让我们在输入(1,1)时输出0,输入(1,0)时输出1(相同取0,不同取1),以此类推。 阅读全文
posted @ 2020-09-01 00:54 忽逢桃林 阅读(755) 评论(0) 推荐(1) 编辑
摘要: 文章目录: 经验误差与过拟合 关键词:错误率(error rate),精度(accuracy)。 错误率好理解,就是m个样本中,a个样本分类错误,则错误率E = a/m 。 精度 就是 1-E。 其实很简单,但是为什么我还要提一提呢,因为机器学习里还有很多相关名词,例如:准确率,召回率,精确度等等, 阅读全文
posted @ 2020-08-30 22:54 忽逢桃林 阅读(838) 评论(0) 推荐(0) 编辑
摘要: 文章来自微信公众号:【机器学习炼丹术】 文章目录: 0 前言 先缕一缕几个关系: GBDT是gradient-boost decision tree GBDT的核心就是gradient boost,我们搞清楚什么是gradient boost就可以了 GBDT是boost中的一种方法,boost还有 阅读全文
posted @ 2020-08-30 20:04 忽逢桃林 阅读(527) 评论(0) 推荐(0) 编辑
摘要: 文章来自微信公众号:【机器学习炼丹术】 1 作者前言 在2020年还在整理XGB的算法,其实已经有点过时了。不过,主要是为了扩大知识面和应付面试嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradie 阅读全文
posted @ 2020-08-24 04:05 忽逢桃林 阅读(963) 评论(0) 推荐(0) 编辑
摘要: 文章来自微信公众号【机器学习炼丹术】。欢迎加入AI友好互助交流群~ 文章目录: 最近要开始写毕业论文了,趁这个机会,整理一下论文中每一个章节的到底要写什么内容。内容来自在读的大学官方提供的英文资料,然后这里翻译成中文并且加上个人理解。文章建议多次阅读体会,觉得偶用的话,可以收藏。 本文的论文背景:一 阅读全文
posted @ 2020-08-23 17:25 忽逢桃林 阅读(708) 评论(0) 推荐(1) 编辑
摘要: 文章来自公众号【机器学习炼丹术】,回复“炼丹”即可获得海量学习资料哦! 本章节缕一缕PyTorch的动态图机制与Tensorflow的静态图机制(最新版的TF也支持动态图了似乎)。 1 动态图的初步推导 计算图是用来描述运算的有向无环图 计算图有两个主要元素:结点(Node)和边(Edge); 结点 阅读全文
posted @ 2020-08-23 06:17 忽逢桃林 阅读(1791) 评论(0) 推荐(0) 编辑
摘要: 文章转自公众号【机器学习炼丹术】,关注回复“炼丹”即可获得海量免费学习资料哦! 最近找工作的时候发现,机器学习算法工程师往往和推荐算法 相关联,之前对推荐算法并不了解,所以现在我也是零基础入门一下推荐算法。这篇文章是我个人的学习笔记。 协同过滤推荐算法是诞生最早,最为基础的推荐算法。 算法通过对用户 阅读全文
posted @ 2020-08-20 18:47 忽逢桃林 阅读(606) 评论(0) 推荐(1) 编辑
摘要: 文章转自公众号【机器学习炼丹术】,关注回复“炼丹”即可获得海量免费学习资料哦! 为什么现在还要学习随机森林? 随机森林中仍有两个未解之谜(对我来说)。随机森林采用的bagging思想中怎么得到的62.3% 以及 随机森林和bagging的方法是否有区别。 随机森林(Random Forest)就是通 阅读全文
posted @ 2020-08-20 08:51 忽逢桃林 阅读(1918) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 12 下一页