摘要:
核逻辑回归(Kernel Logistic Regression) SVM 和 Regularization 之间的联系 软间隔支持向量机的原最优化问题为: \[ \begin{aligned} \min _ { b , \mathbf { w } , \xi } & \frac { 1 } { 2 阅读全文
摘要:
线性回归(Linear Regression) 理论实现 最简单的想法是 \[ y \approx \sum _ { i = 0 } ^ { d } w _ { i } x _ { i } \] 线性回归的假设函数为: \(h(\mathrm{x}) = \mathrm{w}^{T} \mathrm 阅读全文
摘要:
径向基函数网络(Radial Basis Function Network):就是将基假设函数进行线性聚合。 径向基函数网络假设函数(RBF Network Hypothesis) 先回顾一下高斯支持向量机(Gaussian SVM): \[ g _ { \mathrm { svm } } ( \m 阅读全文
摘要:
在博文各个排序算法的实现与优化(含动画演示)已经将各种排序算法的实现进行了讲解,本文将重点针对其适用场景进行介绍,在介绍各排序算法的使用场景之前,先来温习一下跟时间复杂度有关的一些名词概念: 逆序对:设 A 为一个有 n 个数字的有序集 (n>1),其中所有数字各不相同。如果存在正整数 i, j 使 阅读全文
摘要:
TCP通信就跟谈对象一样就像这样: sequenceDiagram participant boy participant girl opt connect note over boy,girl:双方三次握手连接确定关系 boy->>girl:小姐姐谈对象吗🥰? girl->>boy:好啊,确定关 阅读全文
摘要:
动机(Motivation) 感知机的线性融合(Linear Aggregation of Perceptrons) 中文中的感知器或感知机均指的是Perceptron 。 将 Perceptrons 作为 Linear Aggregation 的基模型,搭配方式的网络结构图图如下所示: 可以看出这 阅读全文
摘要:
主成分分析PCA(Principal Component Analysis),作用是: 聚类 Clustering:把复杂的多维数据点,简化成少量数据点,易于分簇 降维:降低高维数据,简化计算,达到数据降维,压缩,降噪的目的 PCA 的目的就是找到一个低维映射空间,使得数据映射后方差最大。 理论实现 阅读全文
摘要:
什么是机器学习(Machine Learing) 首先我们应该弄清楚什么是学习。 learning: acquiring skill with experience accumulated from observations machine learning: acquiring skill wit 阅读全文
摘要:
非线性转换(Nonlinear Transformation) 前面讲了许多线性模型,但是假如数据并不是线性可分的,该如何处理呢?基本思路是将数据样本(特征)空间 \(\mathcal{X}\) 映射到 \(\mathcal{Z}\) 空间后,在 \(\mathcal{Z}\) 空间数据是线性可分的 阅读全文
摘要:
多分类(Multi-Classification) One-Versus-All (OVA) Decomposition 以逻辑回归为例,其思路是将其中一类和剩下的类分开,做二分类,并对全部类做次操作,这样便有了K个逻辑回归分类器,只要取其中概率最大hypothesis所对应的分类作为分类结果即可。 阅读全文