alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

【453】周志华-机器学习-读书笔记

1

目录


一、专业术语 & 公式

1. ground truth

标定好的真实数据(标准答案)

机器学习里经常出现ground truth这个词,能否准确解释一下? - 非理的回答 - 知乎

在有监督学习中,数据是有标注的,以\((x, t)\)的形式出现,其中\(x\)是输入数据,\(t\)是标注。正确的$t$标注是 ground truth。


2. 准确率(Accuracy)、精确率(Precision),召回率(Recall)

参考:
准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure

首先引入基本概念:TP、FP、FN、TN

预测情况 相关(Relevant),正类 无关(NonRelevant),负类
正类 true positives (TP 正类判定为正类) false positives (FP 负类判定为正类)
负类 false negatives (FN 正类判定为负类) true negatives (TN 负类判定为负类)

说明:

TP:T 判断正确,P 判断为正类
FP:F 判断错误,P 判断为正类,实际为负类
FN:F 判断错误,N 判断为负类,实际为正类
TN:T 判断正确,N 判断为负类

Accuracy:准确率,对于给定的测试数据集,分类器正确分类的样本数与总样本数之比。
公式表示如下:

\[A=\frac{TP+TN}{TP+FP+FN+TN} \]

对于 Precision 和 Recall 来说都是针对正类来考虑的,就是说我正类找的对不对、全不全。

Precision:精确率/查准率,在所有判断为正类的结果(TP、FP)中,判断正确(TP)所占的比例。
通俗理解:找的对不对,我找到的所有正类中对的比例
公示表示如下:

\[P=\frac{TP}{TP+FP} \]

Recall:召回率/查全率,对于实际为正类(TP,FN)的所有内容中,判断正确(TP)所占的比例。
通俗理解:找的全不全,所有的正类被正确找到的比例
公式表示如下:

\[R=\frac{TP}{TP+FN} \]

查准率:查的准不准,看看所有判断为正例中判断对的比例
查全率:查的全不全,看看所有的正例中被正确查到的比例

参考:

image

A:检索到的,相关的 (搜到的也想要的)
B:检索到的,但是不相关的 (搜到的但没用的)
C:未检索到的,但却是相关的 (没搜到,然而实际上想要的)
D:未检索到的,也不相关的 (没搜到也没用的)

3. arg max 与 arg min 函数

参考:argmin ,argmax函数
参考:arg max - wikipedia

arg max: arguments of the maxima,最大值对应的点集
arg min: arguments of the minima,最小值对应的点集
max:最大值
min:最小值

举例如下:

\[{\displaystyle {\underset {x}{\operatorname {arg\,max} }}\,f(x):=\{x\mid \forall y:f(y)\leq f(x)\}.} \]

\[{\displaystyle {\underset {x}{\operatorname {arg\,max} }}\,(1-|x|)=\{0\}}. \]

\[{\displaystyle {\underset {x}{\operatorname {arg\,max} }}\,\left(4x^{2}-x^{4}\right)=\left\{-{\sqrt {2}},{\sqrt {2}}\right\}} \]

\[{\displaystyle {\underset {x}{\operatorname {max} }}\,\left(4x^{2}-x^{4}\right)=\{4\}} \]

\[{\displaystyle {\underset {x\in \mathbb {R} }{\operatorname {arg\,max} }}\,(x(10-x))=5} \]

\[{\displaystyle {\underset {x\in [0,4\pi ]}{\operatorname {arg\,max} }}\,\cos(x)=\{0,2\pi ,4\pi \}} \]

\[{\displaystyle {\underset {x}{\operatorname {arg\,min} }}\,f(x):=\{x\mid x\in S\wedge \forall y\in S:f(y)\geq f(x)\}} \]


4. 行向量与列向量

参考:行向量与列向量 - Wikipedia

参考:LaTeX输入单个点、横向多个点、竖向多个点、斜向多个点

行向量用逗号分隔
列向量用分号分隔

在教学书里面一般是按照列向量来表示。

行向量:\(\vec{y} = (y_1,y_2,y_3,...,y_m)\)
列向量:\(\vec{y} = (y_1;y_2;y_3;...;y_m)\)

行向量表示如下:

\[\vec{y}= \left[ \begin{matrix} y_1 & y_2 & y_3 & \cdots & y_m \end{matrix} \right] = \left[ \begin{matrix} y_1 , y_2 , y_3 , \cdots , y_m \end{matrix} \right] \]

列向量表示如下:

\[\vec{y}= \left[ \begin{matrix} y_1 & y_2 & y_3 & \cdots & y_m \end{matrix} \right]^T = \left[ \begin{matrix} y_1 , y_2 , y_3 , \cdots , y_m \end{matrix} \right]^T = \left[ \begin{matrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_m \end{matrix} \right] = \left[ \begin{matrix} y_1 ; y_2 ; y_3 ; \cdots ; y_m \end{matrix} \right] \]


5. 估计量 \(\widehat\theta\)

参考:估计量 - Wikipedia

参考:latex中字母上一个帽子符号

\(\theta\) 的一个估计量记为\(\widehat{\theta}\)。对于 Wikipedia 里面的公式,显示是以图片的形式显示,但是复制的时候可以将其 LaTeX 源码复制出来。


posted on   McDelfino  阅读(240)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2015-11-19 【180】IDL 读写 HDF 文件
点击右上角即可分享
微信分享提示