深度学习概述
1.深度学习的引入
组合低层特征,形成了更加抽象的高层特征。
表达式中的u,w参数需要在训练中通过反向传播多次迭代调整,使得整体的分类误差最小。
深度学习网络往往包含多个中间层(隐藏层),且网络结构要更复杂一些。
2.数据集及其拆分
Iris(鸢尾花)数据集
分类特征:花萼和花瓣的宽度和长度
数据集在数学上通常表示为{(x1,y1),(x2,y2),...,(xi,yi),...,(xm,ym)},其中xi为样本特征。由于样本(即一行)一般有多个特征,因而![]()
,而yi表示样本i的类别标签。
ground truth:翻译为地面实况。机器学习领域一般用于表示真实值、标准答案等,表示通过直接观察收集到的真实结果。
gold standard:金标准,医学上一般指诊断疾病公认的最可靠的方法。
机器学习领域更倾向于使用ground truth,如果用gold standard则表示可以很好地代表ground truth。
数据集与有监督学习:
有监督学习中数据通常分成训练集、测试集两部分。
训练集( training set)用来训练模型,即被用来学习得到系统的参数取值。
测试集( testing set)用于最终报告模型的评价结果,因此在训练阶段测试集中的样本应该是不可见的。
对训练集做进一步划分为训练集和验证集 validation set)。验证集与测试集类似,也是用于评估模型的性能。区别是验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果。
训练集测试集拆分:
- 留出法( Hold-out Method)数据拆分步骤
1.将数据随机分为两组,一组做为训练集,一组做为测试集
2.利用训练集训练分类器,然后利用测试集评估模型,记录最后的分类准确率为此分类器的性能指标
- K折交叉验证
过程:
1.数据集被分成K份(K通常取5或者10)
2.不重复地每次取其中一份做测试集,用其他K1份做训练集训练,这样会得到K个评价模型
3.将上述步骤2中的K次评价的性能均值作为最后评价结果
K折交叉验证的上述做法有助于提高评估结果的稳定性
- 分层抽样策略(Stratified k-fold)
将数据集划分成k份,特点在于,划分的k份中,每一份内各个类别数据的比例和原始数据集中各个类别的比例相同。
K折交叉验证的应用-用网格搜索来调超参数
什么是超参数?指在学习过程之前需要设置其值的一些变量,而不是通过训练得到的参数数据。如深度学习中的学习速率等就是超参数。
什么是网格搜索?
- 假设模型中有2个超参数:A和B。A的可能取值为{a1,a2,a3},B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0,0.25,0.5,0.75,1.0}
- 如果使用网格搜索,就是尝试各种可能的(A,B)对值,找到能使的模型取得最高性能的(A,B)值对。
网格搜索与K折交叉验证结合调整超参数的具体步骤:
- 确定评价指标(准确率等)
- 对于超参数取值的每种组合,在训练集上使用交叉验证的方法求得其K次评价的性能均值
- 最后,比较哪种超参数取值组合的性能最好,从而得到最优超参数的取值组合。
3.分类及其性能度量
分类问题是有监督学习的一个核心问题。分类解决的是要预测样本属于哪个或者哪些预定义的类别。此时输出变量通常取有限个离散值。
分类的机器学习的两大阶段:
- 从训练数据中学习得到一个分类决策函数或分类模型,称为分类器( classifier);
- 利用学习得到的分类器对新的输入样本进行类别预测。
两类分类问题与多类分类问题:
多类分类问题也可以转化为两类分类问题解决,如采用一对其余One-Vs-Rest的方法:将其中一个类标记为正类,然后将剩余的其它类都标记成负类。
分类性能度量
假设只有两类样本,即正例(positive和负例 negative)。通常以关注的类为正类,其他类为负类。
表中AB模式:第二个符号表示预测的类别,第一个表示预测结果对了(True)还是错了(False)
- 分类准确率( accuracy):分类器正确分类的样本数与总样本数之比
- 精确率( precision):反映了模型判定的正例中真正正例的比重。在垃圾短信分类器中,是指预测出的垃圾短信中真正垃圾短信的比例。
- 召回率( recall):反映了总正例中被模型正确判定正例的比重。医学领域也叫做灵敏度( sensitivity)。在垃圾短信分类器中,指所有真的垃圾短信被分类器正确找出来的比例。
P-R曲线:
如何绘制?要得到PR曲线,需要一系列 Precision和Recall的值。这些系列值是通过阈值来形成的。对于每个测试样本,分类器一般都会给了“Score”值,表示该样本多大概率上属于正例。
步骤:
- 从高到低将“ Score"值排序并依此作为阈值 threshold;
- 对于每个阈值,“ Score"值大于或等于这个 threshold的测试样本被认为正例,其它为负例。从而形成一组预测数据。
Area( Area Under Curve,或者简称AUC):有助于弥补P、R的单点值局限性,可以反映全局性能。
Area的定义(p-r曲线下的面积):![](data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAKIAAAAnCAYAAACMj5NwAAAIz0lEQVR4nO2bZ2gUTRjHJzGa2AsK9t5bjCWW2LBFo2KJvUcRO2piw4Kon2yoYEtiiQZsH4yKWLGX2CAGsYsNJR8iduzJvPN/YJYre3e7d/dm73R+cEym7Mzs7n+eeWZmE8IFTKGwmFCrO6BQACVERUCghKgICJQQFQGBEuL/QEZGBktNTbW6G0GFEqIfycrKYlWqVGHx8fFWdyXoUEL0E1evXmXTp09n169ft7orQUmY1R34W+jYsSPLzMy0uhtBi7KIXnLz5k12584dq7vx16Asokmys7NZVFSUFseU3KFDBwt79HegLKJJ4uLi2IIFC9jPnz8LvO2PHz+ytLQ09vLlS0Pljxw5QuWDAa+EmJ6ezqZMmUIv5F/i5MmTLCcnhyUmJrLChQuz/Px8l9bwz58/fm0bgmrRogUrU6YM/YxQs2ZNdvHiRQrv3r1rqr1bt27RdaGhoaxTp07edNkc3AvCwsJ4SEgInz9/vjeXBy1z5syh+3ZF+/btedmyZakMftHR0Xz//v0+t5uRkcFLly7Ns7KyvLp+/PjxdP2LFy9MXSf8YLqPFStWeNWuGUwLcdGiRbxz587/pBAbNWrkVoj/Bx8+fCAR7d6926d6atSoQYI0Q2pqKt1vZmamT20bwZQQ3717Rx17/PjxPylEORMUJBs2bCAR+QqEjAnQjFUcOXJkgd2vKR9x4sSJbMKECeQ36DFv3jxWuXJllpCQQPGzZ8+yyMhIVqpUKbZz5067snCku3XrxsRoZ7Vr13bKB2JaY61bt2YlSpQgX+zYsWOsQoUKZrrsV/Ly8lzeuxlyc3PZ8OHDmZjG2ZkzZyhNTH+sVq1aLCYmhv369Usru3HjRta1a1eXdY0bN46Fh4ezzZs3U3zbtm1UD54T2pHIOvDcXYE6mjVrRj5ov3796P1VrVpVy8fJUWxsLNUtjBGlJSUlsfLly9uV8wqjir106RKNDuGE86dPnzpZxD59+pAP1b9/f8rbsWMHb968ORcLGorbjsTJkydTmngoFBfidRp5YjFEaQcPHqS4eEgUb9mypdt+fvnyhQvhGv69fv3a6COg9osVK2a4vB4PHz6keoRgKIyPj+d9+/blYpDzdevWUdrgwYOpLKZlvCJYRUeQV65cOb527Vq6pmHDhlwYCaqrR48eupYMU/zs2bN1+xUXF0cW//LlyxSfNm0a1TFp0iSKi4UaL1q0KD9w4AClL1y4kDdt2pRPnTqVFylShNr0BcP7iLCGK1euZIUKFdLNHzNmDBs1ahSFxYsXp5F87949yhNTC63AANKFSJkQGBswYAClYQRjNSrZt28fS0lJYXv37mXDhg2jtHbt2lHYu3dvt/2ExZoxY4bR2zJs4eR2ja8WUQiGjgFxPzgSrFevHln8JUuWUL4Y3GT5gVzpYrXsCKwWZpGBAwfSexEDlIlBwo4fP87OnTvHBg0a5HQN6tFbPa9atYp2BISx0VbITZo0obBnz54U4rkLY0KzG7h//z71FRYZVhRW2SeMqHXr1q1ciEuL61lEiTDRlIcyeiCvfv36Wlw8TEqDNZWIh0yj15b09HQqB8tsBbBAaF+8CL/U9+bNG6pPvHC79IiICM2aXbhwgSwiQnegvJguPbbZpUsXp+cqr3ecaRITEyn9/fv3duknTpygdOFaeGzPDIYsorQwRqzB27dvWXR0NKtbt65T3u3btykUppxVr16diZdBo3TTpk1s1qxZlPfq1Sv26dMn8kVtkb6NWLF77IOtj+UJ9MUI379/pxBWxx+cPn2awuXLl9ulw/Ka8bfOnz9P4cyZM73qB/xAMGTIELv0o0ePUgg/1hbp0/p7D9mjECEQLCaePXtml64nymvXrlE4YsQI3bqkEJOTk1nbtm11p3mYfOA4HR0+fJg+sfLE169ftenDCBB+tWrVPJaT4vaXEKUAhg4dqqVJV2bs2LGG65HCGD16tKHyjs9VttmqVSst7fnz5/QTfp/T9XIAwRXwJ26FCJ9gy5YtbldatsiHoncDAEdUACtlWxGiDWl1xRRIIfxMCXxP0L17d499gL8lB4QRjIgQyJMSfwkRzwqnM7asXr2aQvheQIoGpyOuVs5SGHXq1PHYJnxAsVixS8PsA2zvSw4EvTYfPXpERsTvuJu3RYMu95GQ3qtXL8PlgfQvli1bRvEnT55w4eyST4g9SnDjxg0qIx4GxZcuXUorPXmdcOS5mNaNOx9+4sGDB9QHscDyS33y9EUiBKV7ihEZGem2TVyDMp7AqQxeN05pbNmzZw/VIRY8FE9ISODr16+nNPjlWB/ExMRQXnZ2NqXjnfgbl0IUqyftYcXGxtrlYatG5mG7QIK4WAW6bRDbFPJa/FAXtoRsESs0LR/bA0BYUK1+Rwe6IJDHXUlJSXbpp06dou0ovMgfP34YqktMy1RXpUqVuJgSeVRUFMWFRXQqi41oLDCwWHJEWCfdPukhfFHdhQqAkOXzFito/u3bNy0urKJWbs2aNZQmLLSh+zSDV2fNvvL792/aTxN+l8syOTk5PC8vT4vn5+dTmlVgHw0vwfbsePv27ZQmfF++ePFiw6cQ2G1AWex55ubmejztwMkKhOQt8phQbz9S4tgHMWXzz58/e92mWSwRYjCSkpLitJ2BOARoG8dZvCekBTIKplNMq96cN0OEaM/I9G0lSohugI+UlpZGf+ODAUe3A2KCbyeB1WncuLHHeh33Uo0AH09aRr1pWg/sP2Lv0BdrWlAoIbpBHk8mJydTeOjQIS0PR4NyWpZAXOHh4W7rlH6d3mLPExAgxGVUiJhujZa1GvWvAh7AURo+JBDTot2eX0REBIXCz9PS8KFsxYoV3dbXoEEDKudtX9x9AOGIPFYNBshRsboTwQo29Xft2qWdAmEjHWfIcj9VYRwlRB/AJ2/4OECekkCY+O++Nm3aWNyz4EP985QPXLlyhb50wTeX+Ppk7ty5SoReoiyiH4CfWLJkSau7EdQoISoCAjU1KwICJURFQKCEqAgIlBAVAcF/NXu0fNegWuwAAAAASUVORK5CYII=)
F值:
ROC(受试者工作特征曲线,receiver operating characteristic curve)描绘了分类器在 tp rate(真正正例占总正例的比率,反映命中概率,纵轴)和fp rate(错误的正例占反例的比率,反映误诊率、假阳性率、虚惊概率,橫轴)间的trade-off。ROC曲线绘制和P-R曲线类似。
ROC- AUC( Area Under Curve)定义为ROC曲线下的面积
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好。取值范围为[0,1]
分类性能可视化
混淆矩阵的可视化:可用热图(heatmap)直观展现类别的混淆情况
分类报告:显示每个类的分类性能,包括每个类标签的精确率、召回率、F1值等。
4.回归问题及其性能分析
回归分析( regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,和分类问题不同,回归通常输出为一个实数数值。而分类的输出通常为若干指定的类别标签。
回归性能度量方法:
- 平均绝对误差MAE
MAE( Mean absolute error)是绝对误差损失( absolute error loss)的期望值。
- 均方差MSE
MSE( Mean squared error)该指标对应于平方误差损失( squared errorloss)的期望值。
均方根差RMSE:是MSE的平方根
- logistic回归损失(二类)
简称 Log loss,或交叉熵损失( cross-entropy loss),常用于评价逻辑回归LR和神经网络
对于二类分类问题:
1.假设某样本的真实标签为y(取值为0或1),概率估计为p=pr(y=1),
2.每个样本的 log loss是对分类器给定真实标签的负log似然估计(negative log-likelihood)
eg.下面y_pred的每个元素有两个值,分别表示该样本属于不同类标签的概率,两数之和为1。
-
logistic回归损失(多类)
对于多类问题( multiclass problem),可将样本的真实标签( true label)编码成1-of-K(K为类别总数)的二元指示矩阵Y:
举例:假设K=3,即三个类
假设模型对测试样本的概率估计结果为P,则在测试集(假设测试样本总数为N)上的交叉熵损失表示如下:
其中yi,k表示第个样本的第k个标签的真实值(即ground truth,具体含义为第i个样本是否属于第k个标签),注意由于表示为“1-of-K模式因此每个样本只有其中一个标签值为1,其余均为0。pi,k表示模型对第i个样本的第k个标签的预测值。
举例:6个样本,三个类
回归评价的真实标签(即ground truth)如何获得?
MAE,RMSE(MSE)常用于评分预测评价,eg很多提供推荐服务的网站都有一个让用户给物品打分的功能预测用广对物品评分的行为称为评分预测。
5.一致性的评价方法
一致性评价是指对两个或多个相关的变量进行分析,从而衡量其相关性的密切程度。
假设两评委( rater)对5部电影的评分如下,则二者的一致如何?
rater1=[0.5,1.6,25,25,24]
rater2=[1.5,26,35,3.5,34]
-
皮尔森相关系数法
应用背景:用来衡量两个用户之间兴趣的一致性
用来衡量预测值与真实值之间的相关性
既适用于离散的、也适用于连续变量的相关分析
X和Y之间的皮尔森相关系数计算公式:![]()
![](data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAP4AAAAmCAYAAADk+yYTAAAPvElEQVR4nO2dB1gVxxaAD3ZRUVAUEEFFFCtWlBassTxjw64xRY01GjWiGPPsJS/6YqIxlmis0ZdYUGOwI4ig2CIWrICCVBFRen1zzr273Lb37pULKuzPt9/uzs7unZ3ZM3Nm5szBqIABEhISZYpybzsBEhISJY8k+BISZZAKbzsBpZWXOWkQmZ4AbWs2MvhzcWtoXNegzzUEe6MDICMvm47LGRnB5zY9lK7/kxJh8PwoKvkF+Syt2tu/TPZOVcpXKqEU6UZTmn99coY/Hm7lAiYVjbU+QxL8YmDH03O0rWs9ng8rd3QIf3y880I4Hn8VNkaeoHM/l2XgUaclHd9MiYR2/rP5uPkDDsHOKD/47MZ6Ol/uMBoepMaQ4C92GFkSr8Mz984OWPv4qMZrmM77qdHsvf3glPMiMGKCr0j9k+PhI4tOsMlxMp2LzY/iJCn7NfQOXgLmlUzA1/nfGuP0DFoE6XlZcMZ5CdTyHQu5BXkUvr71RJjWqC//HiYVjOFlvz1vLc1uZg60b+E3Az40d9Qp+JKqb2B8Yi+T0Pt09lZq3bY6TuWP+9ZrD55WznQc6LZS6SN3rNkQhlh2oeMJNj1p/0mDbrRf0/JTWNB0KOxoP4O0iXWPjxX7+yjyPft9DhR03EbXdwenWvZK8RxqWEOz6vX58xrHR8NPrSfwQo+IzY/ipHalGnDVYw3UqlgNxl3/Ue360Cv/AZuqdSDIfTUYV6gMd7v/xF9DoUc6mzaFBixOSQi9tjRjnuMmljIt+HdfR8HCsL0wLXQLbFNQlZBDsZdg8s1N8DtTXxVZev8PmHnrV/58X/QFmMLicaDQf2rTnQpGkfG2Pfnj9Nws6MFakt3tvwIXeU2tyLgGXWkfkHSX9h9dXgHuZi1gtt0APg629ovv7dfzjYtGVMZztbBhVq4w336Ihtgy1jw6AnbV6vGCzaFPfuhi5YODtHGsYserFM51sa/jHNgT7U9dKA58V/wGtrf7kg9rUs1S6T7/53fgcvIDCO/5i95p/v6RD6X5F7mWs1Ke5uiMpDdOsz6UWcEfc+0HaOU3E1qZ2JJwT7y5kcJf5aRD5aPDqDIYxVqzsdfXQSf/uXTN+K+RkJiVAusj/oY5t3+DPsFLqfLY/OQUbH96llrhI3EhMMiys8bf9LSUffwNz0yChazlHmP9gcZ4AyycaP8gLQYOxAQxNfga+LstV4qDqj5WLuef3zZIfojhMNNmkG51WtEe1dyBlk6C74t43d0J85porhjE5ocuFt7bS5ssjZfgG3Z8MvGGXs/oWruVUoU+89Y26F+vo1o8bmzF7/kt6Bb0LezrMBvKG5XXO83Y0GCauzCNgXsHTLd11dpvnGZ9KJN9/D+ZMO17dgGGs9ZqZH03SM5J5a95MvUupyAXLjH1zpYVshH7u5bymK7F9t7G+rEx8HOkLyvscnCC9bGwZVjx8AC0rmFDgu9o0lCttedY0XwMHIwNhufZr2Ap66uLYfjVNRDM0qIJ/AhR8LvKBbG4QaFC/NhvKvbRdeFeu7nGcG35cSLhBuTk5wo+E8cLkLOJobLfYBqRLI2yymkEK1eOo6wy5qxV7KtbwqO0WDrHSosDBXB/TCB/HpB0h2lYA9V+dwT7Zr57dJg0maGs4lL8HeRY3BXBNFevUIVVmq3pGCt1pF3NxhCXmSy7Xr6KxjRjOrm8r1u5JriaNdeYZn0ok4LPqcicijqlYR/+2tnnsg/JVl6zF0ChfVNNJtBH4mQfFtcqr2UfAAp6J1N76nMLCT3ifGE+VST4zAtMjXev3UIwbnf2gZxjrcrX7OPrLG8VVCkpgefwZ8KAPO21BRKZsC64K65fa836wJrQlh8BTI3+IVx4DCOj//9ozwnEUHlX4pD8fKRVoUDOurUdIjISwN91OfXHW52bAStajIWBUCj4jVh3BCtujhesMWjMwlQZJhd834TrNMahClbUQix1GEWCz818VClXSTnNCpXIzqd+cJh9a6hRIFjRRKTHQ0zv7YJp1ocyKfhhqdG0V51ais98SfuWrPVGMuUFVNGoMJt842UqpBtrxVJY/+qniOMQ1l024q5tiq2j/9fU8jmbOoB32G7wZkIT6L5SMD4KPTLRtpde71YSoCDj5t3Ukx/T0Ab24XFwTBFd+bGSCSZuujjEC76L7LfysmhvWqk6H2dz2ynwYfASOBgTDPPv7oZZdgPA295T6Tmo9SmWMxemyrF4WYs+0MJJ7RrCVUja0xxMe08r2SAu189X1B6mN+5Hgo8aZgLrXgYn34fs/n/qTLNYymQfv7x8DpQT7BbnZAM49arUoj03EzX3zk7a/9X5G/7e+2nPaI/qmanvx7C97XR+BBtbYE2DLZ4h38GTjETwcfKGefaDKSwo+Z5SHByh1TRKb1/dSvA9cF68pObzUfVGcBqJ41+XVjA1/bXOe8NZS6WImPwQS1yWrLK2rGIKHoEL6diici0aeOPoae5Ie6ykTZlGtrbVZ2rPiUxLYBV+A/7cztiCwlT549lF2gsJvhgOxcgqKxzIxOc9TpPlTw/zNrA76jwdc10CVPlb+s2A/R3mQIVyymMJqmnWhzIp+CisiPHxkdRXna9Q+89hrcHtV0+hS8A86stvbDMJetV15K9bV5ENvlidGk/z1YqtHafmK6pf7oELqObuWNOOzpc/KKy17c5M4Y/3PwuEmMwXdNz9YuH87OzbhaqdKiXZv+93aRntUcXHPMMtLS8TPrb20HpfW5NGsCPqHH8uNj/EECvvGyOYHtRAEKwMvrq9TSnuMLlGME9gBmJ3tL/STMMEpmntij6vFAcHdDltkRtLeBO47gkOIOPg7dwmA/l3UK3Ir6eEQ486bWB4fVedadaLAgm9ycvPE7y2KGxfwSfXftT7mUZHBhfcfRUlOv5vT84WzAz9Ve/fKU6+Ddtb0ODkBKUw1lendysOmIZEz07JTtMaz+v2zgLXAG+K635hgdr18NQ4jWnEsLiMZIOll3+uz6CCCTc2KIWl5WSqxavjO04w77Sl+Ulags40lMkWv6hoM/HE+XVU9/Uxrll0bx8N4jQXaYCBLT32rUvacu9NwAG7Lxv1I/Xe0OyJ8qc9jpYLsTHCF9aHH6fxA7OK1SHwRZjS9dz8PLA7O4Us81Q56rQAbE5/YdA0n0m8KU9zVaVw1TEQBK30qmowFc4ryBdMs1hECb4X6+vanJpIqojJ8dH0oUoIg5Z1qLKJFf4lDqPUpoWEwH49bmgZqG0G4W2RDwXQN3ipklHTj60n0PSbPlOAYrCrZkHTeEIV8bdhv8P0W1thqtzKjpsj7xW0iPY4DtDefw5c/WANdDdvrXZ/f4uO4O+6DBzOTofrL8MNkmacssPK0F7FGEiVGSzdSHZ+Lj/dx6W53flZamnGPMdNLEbY7GuLgEYrmfnZMNm2N3zXchw4BXjB/dfRZDq6vPkY0T9kCHDKBy3nxHLaZXHxJeY9QcozCU1obfEHhawioccFCBsdJ0ENpp64mDaja0KLNYobXPUldpOQIeWZhCqCk4A4R31UboWEfTQObvokKz+HD1NU4dDMdTqL7xroTefjbXrA1rbTNMZFgwoXs2ZQ8dgwOnczaw4BbisEE4sq0knnReLeTICvbm0jVbk0gfYIiisBFZHyrGyC34O2JdCCgr8p8hR/PMranT/mpqrKK/SrkvvupjltZG+HWXz4omYjaFPkQCcvWvVUqVwF3lILLZhczRxKRM3E6bc3XdjwrlLcff3SmGelHV32HYKCj/OLHC0UjAS4eUxFAwY0ZcXBiodpsbT4AFcejbX2UBN6hFtymi23w97CKhjsTogReuyvelxcqDMe0rSaFdzrsUEt/F1zBFHcSHkmoQlBwecWprQxseXDfBSMFqY27KsUHxdcoJ3ynDs7oGl1K9jVfqbOH8fpismhm+C6x1pRicW10T5O80XFlZAh5ZmEJjQKfrTCuuuq5WXzi2jeOummbN0xWhGpTn9wttKvctPhjPNirT/ap247MgHtHOAF39gPFd2i4MIZ23fQ5dS7jJRnEprQOKp/Wr7UEUFHAzggh+ataK7p1WQQ7O/4tdo9o6/9l8wzEe8w7au2cDksUpH185c1F7c8VUJCwnBobPFPJ/7DH+d+dIDWnOMAHLeIRRVcnnkw5hI87PEzOVXA1UY/txG2eOLWLI+wUrc/lpCQKH4EWnyZWWHlchXJKgpVRSGh3xR5ElY/OgQp/faAjbE5H34kNoQ/xpVniv7BDqusaZeQkChZNLb4SfKllr3MHTVd5pkeuoX3jIr3cGuhkcFXVkNSn120Lhqn7tB9FDL+RuGo8drHR5Sm/951/oq7SktM03Iz6RwNXoRWe2kC7bQj0hMgMesVcKYy3IoyiaKDbtHOJ92BSFZGufn5FNbPogN5RRILV0bPWRlxlMYyUhN8nP4xkn+WuD5YGxuYOr9BRaXX5JUkJPkhzGzcn463tZtO2/vEx9fXkc94VcSOlm9mWtGU0M1q4dxSUYmi0+j0JFrjT6AVutwKUazQqpWR/BmltYx02uoXlStM6HdE+Wnt87/L4JppHLPoUNMO/u6yEOqd/IyMI8J7Fi5CUezWqPp0wxYEvb8gQW6rYMLNjeSgk6sg8V78Rrn4mnyrSWjH8uTnEJ/1Er5tOoymmS1ZGc1pMlDJHbjeZfTqKeQPPMzfI8YH3vtEsS/LRV9076vQI79E+JJUXvH4HsxZIeNxZJqyRxl0ljE4ZBX5PLepag6DLq+CsNQoujYkZDXdE9p1HXQxawbp2E1g5+hOCdnFKkWMz5lAr3nkA9NubnkvP6a3Ac46xWcm0z+UwFWOqXmybtiJeGUvu3qXEYMrIwR94OH9paWcpPX4WiB7BtYcd6jVpDCQnVdTWUu9yXEKhaO1I/6XE/Tpxnn1ScWPiF1rZSLz4xeJ6ig7x5YCmSZfB3Ev9Znct9oDePrh1hJ4u9IB+SZk+ekpV8mDXshceHUxU3ZQqncZAfBlhKAPPIxTWspJEnwtcN5hOW+r2NdHVDUYzjWXNp9uCKduDrUs/OcSnCGUNt9qEsI0MpaVDfrIQ76QG5mtUVDzEb3LSKVvL8YH3vuEJPg6+LRBN/LDjz74cIAP1x9w/+lGESGfbn928qI9upLGmQ6cKfmj01y1+7X5VpMQBl1So+HYgJCVNMCHqvhplyW0fkSVopYRUlrKqdgH90oLGXlZvPmyKvPu7IKLTMVET7FCS4txCrCagIsoc99xkJSTqnFGRMIwFLWMEPMTn9C0dWkoJ6nFF4mQ0JNPt4i/BX26cWj7oIR8q0kYBkOUEVKaykkS/CJAPt1Ct8BU+X/iIdfbTIHifLqJgfetlpdDU1IShsUQZYRQObH7Sks5Saq+hEQZRGrxJSTKIP8HbKee/HkI8o0AAAAASUVORK5CYII=)
其中,cov(X,Y)表示X和Y之间的协方差( Covariance),![]()
是X的均方差,![]()
是X的均值,E表示数学期望
取值区间为[1,1]。-1:完全的负相关,+1:表示完全的正相关,0:没有线性相关。
-
Cohen's kappa相关系数
与 皮尔森相关系数的区别:Cohens kappa相关系数通常用于离散的分类的一致性评价。
其通常被认为比两人之间的简单一致百分比更强壮,因为 Cohenskappa考虑到了二人之间的随机一致的可能性
如果评价者多于2人时,可以考虑使用Fleiss' kappa
Cohen's kappa的计算方法:
kappa score是一个介于-1到+1之间的数。
![](https://img2020.cnblogs.com/blog/817128/202005/817128-20200530172632175-841171020.png)