摘要:
更适合会一门编程语言体质的宝宝 阅读全文
摘要:
# Decision Tree ## 熵 \- entropy ### 数学表达式 $$ H(p_1) = -p_1 \text{log}_2(p_1) - (1- p_1) \text{log}_2(1- p_1) $$ ### 代码 ```python # UNQ_C1 # GRADED FUN 阅读全文
摘要:
# K-Means ## 找最接近的质心 ### 公式 $$ c^{(i)} := j \quad \mathrm{that \; minimizes} \quad ||x^{(i)} - \mu_j||^2 $$ 其中,范式$||X||$,其计算公式为 $$ ||X|| = \sqrt{x_1^2 阅读全文
摘要:
# Collaborative Filtering Recommender Systems > 解决相似度问题 ## 概念 准确率 = $accuracy = \frac{预测正确的样本}{总样本}$ 精确率 = $precision = \frac{预测成功的正类}{预测的正类}$ 【不能误检】 阅读全文
摘要:
# Regularized ## Cost function for regularized linear regression ### 数学表达式 $$ J(\mathbf{w},b) = \frac{1}{2m} \sum\limits_{i = 0}^{m-1} (f_{\mathbf{w}, 阅读全文
摘要:
# Softmax Regression > (多标签分类)将多输入的分类值转化为\[0,1\]的概率分布,进而进行逻辑回归算法 > > softmax能将差距大的数值距离拉得更大,但是数值可能会溢出 ## Softmax Function ### 数学表达式 $$ a_j = \frac{e^{z 阅读全文
摘要:
# Neural Networks > 神经网络:一种计算模型,由大量的节点(或神经元)直接相互关联而构成。每个节点(除输入节点外)代表一种特定的输出函数(或者认为是运算),称为激励函数;每两个节点的连接都代表该信号在传输中所占的比重(即认为该信号对该节点的影响程度) > > 神经网络三要素:模型、 阅读全文
摘要:
# Logistic Regression > 分类问题 > > 本质是分类,要预测的变量是离散的值 ## 逻辑回归模型 ### 数学表达式 $$ z = \vec w \cdot \vec x + b \tag{1} $$ $$ f_{\vec w, b}(\vec x) = g(z) \tag{ 阅读全文
摘要:
# Liner Regression with Multiple Variable > 用向量实现的代码,单变量和多变量可以共用 > > 多变量线性回归相当于是单变量的扩展,主要还是按照模型假设、构造代价函数和研究代价函数的最小值这样的思路展开。 > > 与单变量线性回归不同的是,多变量线性回归还可 阅读全文