随笔分类 - 机器学习
经典算方法
摘要:1.sigmoid函数 2.softmax函数 及其导数 3.tanh函数及其导数 3.MSE均方差损失函数及其导数 4.交叉熵损失函数及其导数
阅读全文
摘要:1.距离计算 给定样本 连续属性的距离计算 闵可夫斯基距离 \(dist_{mk}(x_i,x_j)=(\sum\limits_{u=1}^{n}|x_{iu}-x_{
阅读全文
摘要:一.判别分析和分类分析 例子 贷款人申请贷款,要评估是否能够成功偿还贷款 二.区别 判别分析-寻找判别规则,利用判别函数来描述-主要是区分不同的群体-找规律 分类分析-给出分类结果-预测新对象的类别,找到最优可能属于的类别-贴标签 目标通常都是分类 两群体Fisher线性判别分析 目标寻找最合适的平
阅读全文
摘要:#1.概念 拟合能力强的模型一般复杂度会比较高,容易过拟合。 如果限制模型复杂度,降低拟合能力,可能会欠拟合。 #2.如何选择模型? 模型越复杂,迅雷错误越低 #####不能根据训练错误最低来选择模型 #####在选择模型时,测试集不可见 #3.模型选择 引入验证集 将训练集分为两部分 训练集 验证
阅读全文
摘要:1.学习准则 一个好的模型应该在所有取值上都与真实映射函数一致 #2.损失函数 Loss Function 损失函数是一个非负实数函数,用来量化模型预测和真实标签之间的差异 以回归问题为例 平方损失函数 Quadratic Loss Function \(\mathcal{L}(y,f(x;\the
阅读全文
摘要:点击查看代码 from sklearn import datasets # 自带数据集 from sklearn.model_selection import train_test_split # 数据集划分 from sklearn.preprocessing import StandardSca
阅读全文
摘要:1.留出法 2.python代码演示 点击查看代码 from sklearn import datasets # 自带数据集 from sklearn.model_selection import train_test_split # 数据集划分 from sklearn.preprocessing
阅读全文
摘要:1.种类 感知器 Logistic回归 Softmax回归 交叉熵和对数似然 支持向量机 Softmax回归是多分类,其他都是二分类 #2.线性回归模型 #3.线性分类模型 $g(f(x;w))=\begin{cases} 1 & if\ f
阅读全文
摘要:课程来源 https://www.bilibili.com/video/BV167411N7fE?p=3 #1.问题 如果采样是离散的,那么频率是有限宽的,没法采到特别高频率的样本 或者有很高频的样本,你的采样精度不够细的时候,采样数据的信号有多大的可信程度? 2.From CFT to DTFT
阅读全文