摘要:
1. 引言 最近在刷开源的Pytorch版动手学深度学习,里面谈到几个高级选择函数,如index_select,masked_select,gather等。这些函数大多很容易理解,但是对于gather函数,确实有些难理解,官方文档开始也看得一脸懵,感觉不太直观。下面谈谈我对这几个函数的一些理解。 2 阅读全文
摘要:
1. 引言 这里主要记录一下conda和pip的常用用法,顺便谈谈anaconda/conda/pip之间的一些区别。 2. 谈谈anaconda/conda/pip anaconda:简单来说,anaconda就是一个包含conda这个通用包管理器以及这种数据科学包的发行版软件 conda:其实就 阅读全文
摘要:
1. 引言 在这里主要实现感知机算法(PLA)的以下几种情况: PLA算法的原始形式(二分类) PLA算法的对偶形式(二分类) PLA算法的作图(二维) PLA算法的多分类情况(包括one vs. rest 和one vs. one 两种情况) PLA算法的sklearn实现 为了方便起见,使用鸢尾 阅读全文
摘要:
1. 感知机原理 感知机是二分类的线性分类模型,本质上想找到一条直线或者分离超平面对数据进行线性划分 适用于线性可分的数据集,否则感知机不会收敛 假设有一个数据集$D = {(x_1, y_1), (x_2, y_2), ..., (x_N, y_N)}$,其中$x_i \in Rn$,即$x_i 阅读全文
摘要:
更新时间:2019.10.31 [TOC] 1. 引言 在前两篇,我们分别从损失函数以及似然函数的角度来窥探了线性模型。接下来,继续从一个新的角度 贝叶斯统计来讨论一下线性模型。 2. 先验概率和后验概率 谈起贝叶斯,就不得不提先验概率和后验概率。先验概率通常是通过历史或者经验得来的,而后验概率则是 阅读全文
摘要:
更新时间:2019.10.31 [TOC] 1. 引言 在上一篇中,我们从损失函数的角度出发讨论了$\beta$和$\sigma$的估计。在本篇将换一种极具统计味道的角度,从似然函数出发来讨论了$\beta$和$\sigma$的估计。从中我们也将看见,在不同的假设中,损失函数将会发生不同的变化。 2 阅读全文
摘要:
更新时间:2019.10.31 [TOC] 1. 引言 无论是统计学还是机器学习,我们最先接触的模型(统计中的参数模型,机器学习中的有监督学习)都是线性模型,一个是因为它“简单”,另一个是因为它是其他许多模型的一个衍生基础,这也是为什么实际生活中虽然大多数都是非线性的,而我们还是要学习线性模型的原因 阅读全文
摘要:
更新时间:2019.10.02 [TOC] 1. 序言 矩阵是一个强大的工具,许多东西都能够用矩阵来表示,下面来谈谈在latex中怎么输入一个矩阵 2. 矩阵 2.1 复杂写法 在latex中,我们可以使用 参数来输入一个矩阵。 显示效果: \begi 阅读全文
摘要:
更新时间:2019.10.27 增加补充项中的内容 1. 序言 之前总结了一下latex的公式输入。但是俗话说得好,巧妇难为无米之炊。如果想要输入复杂的数学公式,光知道公式输入的方式是远远不够的,我们还需要了解公式中常用的组成部分。 2. 上下标 数学公式中的字母经常是带上标(幂/转置/导数等)和下 阅读全文
摘要:
更新时间:2019.10.02 [TOC] 1. 序言 当我们首次在文档中输入公式的时候,我们首先想到的是word,毕竟这是我们极为常用的三件套之一。事实上,使用word的墨迹公式(磨叽???)写一个简单的数学公式也还是比较方便的。然而,当我们需要大量输入复杂的数学公式时,用word就十分崩溃了。这 阅读全文