摘要:
前言 本系列教程为pytorch官网文档翻译。本文对应官网地址: "https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html" 系列教程总目录传送门: "我是一个传送门" 本系列教程对应的 jupyter 阅读全文
摘要:
前言 本系列教程为pytorch官网文档翻译。本文对应官网地址: "https://pytorch.org/tutorials/intermediate/char_rnn_generation_tutorial.html" 系列教程总目录传送门: "我是一个传送门" 本系列教程对应的 jupyter 阅读全文
摘要:
前言 本系列教程为pytorch官网文档翻译。本文对应官网地址: "https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html" 系列教程总目录传送门: "我是一个传送门" 本系列教程对应的 jup 阅读全文
摘要:
介绍 不久前Pytorch发布了1.0版本,官网的doc页也更新了。这里说下官网的教程很实用,边学pytorch搭网络边学NLP 图像等领域的先进技术。 官网的教程都是英文的,本人就用这个系列博客做个小小的翻译工作,希望能帮到一些英语苦手(当然也包括双开谷歌翻译的我Orz)的小伙伴学习pytorch 阅读全文
摘要:
1. 决策树概览 对于一个具有多个属性的数据集,决策树根据某种划分决策,依据某个离散属性对数据集进行划分,形成子集,之后递归地对子集进行划分,直到子集均属于某一类别,或是在某个容忍度下属于某种类比。 假设有样本集合 $D$,它有如下属性: $m$ 个样本 属性集合 $A$ 具有 $n$ 个离散属性 阅读全文
摘要:
目前集成学习(Ensemble Learning) 分为两类: 个体学习器间存在强依赖关系、必须串行化生成的序列化方法:Boosting 个体学习器间不存在强依赖关系,可同时生成的并行化方法:Bagging 和 随机森林 这里先来讲下代表Boosting家族的AdaBoost。 Boosting 是 阅读全文
摘要:
1. 线性SVM 对两类点的划分问题,这里对比下逻辑回归和SVM的区别: 逻辑回归的思想是,将所有点到决策平面的距离作为损失来进行训练,目标是到决策平面的距离和最小 SVM的思想是,只关注支持向量(图中圈出的点)到决策平面的距离,最大化这个距离。 对于所有样本点 $\{(x_i,y_i)\}, i 阅读全文
摘要:
1. 参数VS非参数 给定样本集 $(x_i, y_i), i= 1,2,\cdots, n $,其中 $x_i$ 表示特征向量, $y_i$ 表示样本标签。 考虑一个新的向量 $x$,要将他分类到可选分类 ${C_1, C_2,\cdots, C_c}$中 。 方法: 参数的 非参数的 1.1 参 阅读全文
摘要:
1. Bayes Rule 贝叶斯公式: $$ p(\omega|x)=\frac{p(x|\omega)p(\omega)}{p(x)} $$ 2. Bayes Error Rate 对于贝叶斯分类器: if $p(\omega_1|x) p(\omega_2|x), \textrm{ decid 阅读全文
摘要:
本文翻译自 "www.tensorflow.org" 的英文教程。 模块包含一组类,可以让你轻松加载数据,操作数据并将其输入到模型中。本文通过两个简单的例子来介绍这个API 从内存中的numpy数组读取数据。 从csv文件中读取行 基本输入 对于刚开始使用 ,从数组中提取切片(slices)是最简单 阅读全文