07 2023 档案
摘要:# Decision Tree ## 熵 \- entropy ### 数学表达式 ### 代码 ```python # UNQ_C1 # GRADED FUN
阅读全文
摘要:# Regularized ## Cost function for regularized linear regression ### 数学表达式 $$ J(\mathbf{w},b) = \frac{1}{2m} \sum\limits_{i = 0}^{m-1} (f_{\mathbf{w},
阅读全文
摘要:# Softmax Regression > (多标签分类)将多输入的分类值转化为的概率分布,进而进行逻辑回归算法 > > softmax能将差距大的数值距离拉得更大,但是数值可能会溢出 ## Softmax Function ### 数学表达式 $$ a_j = \frac{e^{z
阅读全文
摘要:# Neural Networks > 神经网络:一种计算模型,由大量的节点(或神经元)直接相互关联而构成。每个节点(除输入节点外)代表一种特定的输出函数(或者认为是运算),称为激励函数;每两个节点的连接都代表该信号在传输中所占的比重(即认为该信号对该节点的影响程度) > > 神经网络三要素:模型、
阅读全文
摘要:# Logistic Regression > 分类问题 > > 本质是分类,要预测的变量是离散的值 ## 逻辑回归模型 ### 数学表达式 $$ f_{\vec w, b}(\vec x) = g(z) \tag{
阅读全文
摘要:# Liner Regression with Multiple Variable > 用向量实现的代码,单变量和多变量可以共用 > > 多变量线性回归相当于是单变量的扩展,主要还是按照模型假设、构造代价函数和研究代价函数的最小值这样的思路展开。 > > 与单变量线性回归不同的是,多变量线性回归还可
阅读全文
摘要:# ML introduction > 机器学习:从数据中学习,而不依赖于规则下编程的一种算法 > > **Goal: \- 提供一种衡量一组特定参数与训练数据拟合程度的方法** ## Supervised Learning > right answer &
阅读全文