机器学习基础---机器学习系统设计

将谈及在设计复杂的机器学习系统时,你将遇到的主要问题。同时会试着给出一些关于如何巧妙构建一个复杂的机器学习系统的建议。下面的课程的的数学性可能不是那么强,但是将要讲到的这些东西是非常有用的,可能在构建大型的机器学习系统时,节省大量的时间。

一:改进学习算法

实际工作中,我们应该优先处理哪些事情?以一个垃圾邮件分类器算法为例进行讨论:

如何通过监督学习的方法,来构造一个分类器来区分垃圾邮件和非垃圾邮件?

为了应用监督学习解决这样一个问题,我们首先要做的决定是如何选择并表达特征向量X,通过特征向量X和分类标签y,我们就能训练一个分类器。我

们可以选择一个由100个最常出现在垃圾邮件中的词所构成的列表,根据这些词是否有在邮件中出现,来获得我们的特征向量(出现为1,不出现为0),尺寸为100×1

我们可以使用上面的特征向量来表示这封邮件,进行垃圾分类。在实际中,选取的单词一般在10000-50000之间(出现频率最高的),这些单词组成了特征变量

对于处理垃圾邮件分类,一个常见问题就是:如何在有限的时间下,让垃圾邮件分类器,具有高精准度和低错误率

解决方案:

  1. 收集更多的数据,让我们有更多的垃圾邮件和非垃圾邮件的样本。通过Honey Pot项目可以收集大量垃圾邮件的数据
  2. 基于邮件的路由信息开发一系列复杂的特征
  3. 基于邮件的标题、正文信息开发一系列复杂的特征,包括考虑截词的处理
  4. 为探测刻意的拼写错误(把watch 写成w4tch)开发复杂的算法

在上面这些选项中,非常难决定应该在哪一项上花费时间和精力,作出明智的选择。我们可以随机选取,这也比那些随着感觉走好得多,因为我们已经知道有这些方法可以用于提高精度等。

二:误差分析 

(一)误差分析引出

了解误差分析(Error Analysis)的概念。这会帮助你更系统地做出决定。

如果你准备研究机器学习的东西,或者构造机器学习应用程序,最好的实践方法不是建立一个非常复杂的系统,拥有多么复杂的变量;而是通过一个简单的算法,来快速地实现它。

每当研究机器学习的问题时,最多只会花一天的时间,来试图很快的把结果搞出来,即便效果不好。

没有用复杂的系统,只是很快的得到的结果。即便运行得不完美,但是也把它运行一遍,最后通过交叉验证来检验数据。

一旦做完,就可以画出学习曲线,通过画出学习曲线,以及检验误差,来找出你的算法是否有高偏差和高方差的问题,或者别的问题。

在这样分析之后,再来决定用更多的数据训练,或者加入更多的特征变量是否有用。

这么做的原因是这在刚接触机器学习问题时是一个很好的方法,你并不能提前知道你是否需要复杂的特征变量,或者你是否需要更多的数据,还是别的什么。提前知道你应该做什么,是非常难的,因为你缺少证据,缺少学习曲线。因此,你很难知道你应该把时间花在什么地方来提高算法的表现。但是当你实践一个非常简单即便不完美的方法时,你可以通过画出学习曲线来做出进一步的选择。你可以用这种方式来避免一种电脑编程里的过早优化问题,

这种理念是:

我们必须用证据来领导我们的决策,怎样分配自己的时间来优化算法,而不是仅仅凭直觉,凭直觉得出的东西一般总是错误的。

除了画出学习曲线之外,

一件非常有用的事是误差分析,我的意思是说:

当我们在构造垃圾邮件分类器时,我会看一看我的交叉验证数据集的情况,然后看一看哪些邮件被算法错误地分类。因此,通过这些被算法错误分类的垃圾邮件与非垃圾邮件,你可以发现某些系统性的规律:什么类型的邮件总是被错误分类。经常地这样做之后,这个过程能启发你构造新的特征变量,或者告诉你:现在这个系统的短处,然后启发你如何去提高它。

(二)案例

假如在这个案例中,算法有很高的错误率。500个例子中,错误分类了100个交叉验证样本。

于是我们手动核查这100个错误,然后手工为他们分类,同时要考虑这些邮件是什么类型的邮件。

通过发现这些错误分类的邮件,我们可以分析出错误分类邮件中的那些邮件中最普遍的类型是什么。

因此,这样的误差分析是一种手动地去检查算法所出现得失误的过程。可以引导你走向最有成效的道路。

我们推荐先快速实现一个简单粗暴的算法,(对于不同的学习算法而言,对他们造成困难的样本总是相似的,所以先使用简单的算法的效果,和后面真正算法处理的问题几乎一致)通过一个简单粗暴的算法,可以很快的找到算法的不足所在和难以处理的样本类型。然后把精力集中在这些问题上。

(三)数值估计

在改进学习算法时,另一个技巧是保证自己对学习算法有一种数值计算的方法来评估你的机器学习算法。

意思是 ,如果你在改进一个学习算法时,如果你的学习算法,能够返回一个数值评价指标,来评估你算法执行的效果,这是非常有用的。

你的学习算法可能精确,可能有错。但是数值估计能准确的告诉你你的算法到底表现有多好

误差分析并不总能帮助我们判断应该采取怎样的行动。

有时我们需要尝试不同的模型,然后进行比较,在模型比较时,用数值来判断哪一个模型更好更有效,通常我们是看交叉验证集的误差。  

在我们的垃圾邮件分类器例子中,对于我们是否应该将discount/discounts/discounted/discounting处理成同一个词?如果这样做可以改善我们算法,我们会采用一些截词软件。误差分析不能帮助我们做出这类判断,我们只能尝试采用和不采用截词软件这两种不同方案,然后根据数值检验的结果来判断哪一种更好 

因此,当你在构造学习算法的时候,你总是会去尝试很多新的想法,实现出很多版本的学习算法,如果每一次你实践新想法的时候,你都要手动地检测这些例子,去看看是表现差还是表现好,那么这很难让你做出决定。到底是否使用词干提取,是否区分大小写。但是通过一个量化的数值评估,你可以看看这个数字,误差是变大还是变小了。你可以通过它更快地实践你的新想法,它基本上非常直观地告诉你:你的想法是提高了算法表现,还是让它变得更坏,这会大大提高你实践算法时的速度。所以我强烈推荐在交叉验证集上来实施误差分析,而不是在测试集上。但是,还是有一些人会在测试集上来做误差分析。即使这从数学上讲是不合适的。所以我还是推荐你在交叉验证向量上来做误差分析。 

总结一下,当你在研究一个新的机器学习问题时,我总是推荐你实现一个较为简单快速、即便不是那么完美的算法。我几乎从未见过人们这样做。大家经常干的事情是:花费大量的时间在构造算法上,构造他们以为的简单的方法。因此,不要担心你的算法太简单,或者太不完美,而是尽可能快地实现你的算法。当你有了初始的实现之后,它会变成一个非常有力的工具,来帮助你决定下一步的做法。因为我们可以先看看算法造成的错误,通过误差分析,来看看他犯了什么错,然后来决定优化的方式。另一件事是:假设你有了一个快速而不完美的算法实现,又有一个数值的评估数据,这会帮助你尝试新的想法,快速地发现你尝试的这些想法是否能够提高算法的表现,从而你会更快地做出决定,在算法中放弃什么,吸收什么误差分析可以帮助我们系统化地选择该做什么。

总之:

误差分析---让我们发现哪些方面不足

数值估计---让我们对某个不足方面,选用多种模型进行处理,从这些模型中通过数值估计选取出最好的一种。

三:类偏斜的误差度量

有了算法的评估和误差度量值。有一件重要的事情要注意,就是使用一个合适的误差度量值,这有时会对于你的学习算法造成非常微妙的影响,这件重要的事情就是偏斜类(skewed classes)的问题。

类偏斜情况表现为我们的训练集中有非常多的同一种类的实例,只有很少或没有其他类的实例。

例如我们希望用算法来预测癌症是否是恶性的,在我们的训练集中,只有0.5%的实例是恶性肿瘤。假设我们编写一个非学习而来的算法,在所有情况下都预测肿瘤是良性的,那么误差只有0.5%

然而我们通过训练而得到的神经网络算法却有1%的误差。这时,误差的大小是不能视为评判算法效果的依据的

查准率Precision)和查全率Recall 我们将算法预测的结果分成四种情况:

 1. 正确肯定True Positive,TP):预测为真,实际为真

 2. 正确否定True Negative,TN):预测为假,实际为假

 3. 错误肯定False Positive,FP):预测为真,实际为假

 4. 错误否定False Negative,FN):预测为假,实际为真

则:

查准率=TP/(TP+FP)

例,在所有我们预测有恶性肿瘤的病人中,实际上有恶性肿瘤的病人的百分比,越高越好。

查全率=TP/(TP+FN)

例,在所有实际上有恶性肿瘤的病人中,成功预测有恶性肿瘤的病人的百分比,越高越好。

这样,对于我们刚才那个总是预测病人肿瘤为良性y=0的算法,其查全率是0

查全率=TP/(TP+FN)=实际为良性的里面,成功预测出为良性的百分比=0/0.5%=0(重点:我们总是用出现的非常少的类来进行查全和查准)

拥有高的查准率和查全率模型是一个好的分类模型。给了我们更好的评估值,是一种更直接的方式来评估模型的好坏。

所以上面的糊弄程序不可以获得高查全率和查准率,不是一个好的算法。

四:查准率和查全率之间的权衡

在之前谈到查准率和召回率,作为遇到偏斜类问题的评估度量值。在很多应用中,我们希望能够保证查准率和召回率的相对平衡。

这里,将告诉你应该怎么做,同时也向你展示一些查准率和召回率作为算法评估度量值的更有效的方式。继续沿用刚才预测肿瘤性质的例子。假使,我们的算法输出的结果在0-1 之间,我们使用阀值0.5 来预测真和假。

 

查准率(Precision)=TP/(TP+FP) 例,在所有我们预测有恶性肿瘤的病人中,实际上有恶性肿瘤的病人的百分比,越高越好。

查全率(Recall)=TP/(TP+FN)例,在所有实际上有恶性肿瘤的病人中,成功预测有恶性肿瘤的病人的百分比,越高越好。

如果我们希望只在非常确信的情况下预测为真(肿瘤为恶性),即我们希望更高的查准率,我们可以使用比0.5更大的阀值,如0.70.9。这样做我们会减少错误预测病人为恶性肿瘤的情况,同时却会增加未能成功预测肿瘤为恶性的情况。

如果我们希望提高查全率,尽可能地让所有有可能是恶性肿瘤的病人都得到进一步地检查、诊断,我们可以使用比0.5更小的阀值,如0.3

我们可以将不同阀值情况下,查全率与查准率的关系绘制成图表,曲线的形状根据数据的不同而不同:

当然查全率和查准率曲线并不只是上面的形状:有时可以是下面的粉线或者红线等其他多种可能性(取决于回归模型具体算法)

我们希望有一个帮助我们自动选择这个阀值的方法。(如果我们有不同的算法、想法,我们如何比较不同的查准率和查全率?来选择一个最好的算法)

一种方法是计算F1 F1 Score),用来评估算法的好坏,用于更快更好的决定我们应该使用哪一个算法。其计算公式为:

我们选择使得F1值最高的阀值。

对于一个最坏的情况:

 对于一个最完美的情况:

总结:

根据二中误差分析,我们可以找到应该改进哪一方面。再根据数值估计,我们可以从多种模型中选取出最好的一种模型进行使用。

而我们的数值估计---误差需要通过查全率和查准率进行评估。

而对于不同的模型,我们有不同的查全率和查准率。如何选取模型,就需要我们对查全率和查准率进行权衡。

五:机器学习中的数据

在之前的学习中,我们讨论了评价指标。在这里,我要稍微讨论一下机器学习系统设计中另一个重要的方面,这往往涉及到用来训练的数据有多少。在之前的学习中,告诫大家不要盲目地开始花大量的时间来收集大量的数据,因为大量数据,只有在一些情况下起作用。

但事实证明,在一定条件下(后面讲到这些条件是什么),得到大量的数据并在某种类型的学习算法中进行训练,可以是一种有效的方法来获得一个具有良好性能的学习算法。而这种情况往往出现在,这些条件对于你的问题都成立, 并且你能够得到大量数据的情况下。这可以是一个很好的方式来获得非常高性能的学习算法。因此,在这里,让我们一起讨论一下这个问题。

(一)案例一 

通过机器学习算法来区分常见的易混淆的单词,他们尝试了许多种不同的算法,并发现数据量非常大时,这些不同类型的算法效果都很好。

上面使用了4中分类方法,但是这些具体的算法并不重要。它所做的就是改变了训练数据集的大小。并尝试将这些学习算法用于不同大小的训练数据集中,这就是得到的结果:

这些趋势非常明显首先大部分算法,都具有相似的性能,其次,随着训练数据集的增大,在横轴上代表以百万为单位的训练集大小,从0.1个百万到1000百万,也就是到了10亿规模的训练集的样本,这些算法的性能也都对应地增强了。

事实上,如果你选择任意一个算法,可能是选择了一个"劣等的"算法,如果你给这个劣等算法更多的数据,那么从这些例子中看起来的话,它看上去很有可能会其他算法更好,甚至会比"优等算法"更好。由于这项原始的研究非常具有影响力,因此已经有一系列许多不同的研究显示了类似的结果。这些结果表明,许多不同的学习算法有时倾向于表现出非常相似的表现,这还取决于一些细节,但是真正能提高性能的,是你能够给一个算法大量的训练数据。像这样的结果,引起了一种在机器学习中的普遍共识:"取得成功的人不是拥有最好算法的人,而是拥有最多数据的人"

那么这种说法在什么时候是真,什么时候是假呢?因为如果我们有一个学习算法,并且如果这种说法是真的,那么得到大量的数据通常是保证我们具有一个高性能算法的最佳方式,而不是去争辩应该用什么样的算法。

假如有这样一些假设,在这些假设下有大量我们认为有用的训练集,我们假设在我们的机器学习问题中,特征值X包含了足够的信息,这些信息可以帮助我们用来准确地预测y

例如,如果我们采用了一些容易混淆的词,如:twototoo,假如说它能够描述,捕捉到需要填写的空白处周围的词语,那么特征捕捉到之后,我们就希望有对于早饭我吃了__鸡蛋,那么这就有大量的信息来告诉我中间我需要填的词是两个”(two),而不是单词 to too,因此特征捕捉,哪怕是周围词语中的一个词,就能够给我足够的信息来确定出标签y是什么。换句话说,从这三组易混淆的词中,我应该选什么词来填空。

那么让我们来看一看,大量的数据是有帮助的情况。假设特征值有足够的信息来预测值,假设我们使用一种需要大量参数的学习算法,比如有很多特征的逻辑回归或线性回归,或者用带有许多隐藏单元的神经网络,那又是另外一种带有很多参数的学习算法,这些都是非常强大的学习算法,它们有很多参数,这些参数可以拟合非常复杂的函数因此我要调用这些,我将把这些算法想象成低偏差算法,因为我们能够拟合非常复杂的函数,而且因为我们有非常强大的学习算法,这些学习算法能够拟合非常复杂的函数。很有可能,如果我们用这些数据运行这些算法,这种算法能很好地拟合训练集,因此,训练误差就会很低了。

现在假设我们使用了非常非常大的训练集,在这种情况下,尽管我们希望有很多参数,但是如果训练集比参数的数量还大,甚至是更多,那么这些算法就不太可能会过度拟合。也就是说训练误差有希望接近测试误差。

另一种考虑这个问题的角度是为了有一个高性能的学习算法,我们希望它不要有高的偏差和方差。

因此偏差问题,我将通过确保有一个具有很多参数的学习算法来解决,以便我们能够得到一个较低偏差的算法,并且通过用非常大的训练集来保证。

我们在此没有方差问题,我们的算法将没有方差,并且通过将这两个值放在一起,我们最终可以得到一个低误差和低方差的学习算法。这使得我们能够很好地测试测试数据集。从根本上来说,这是一个关键的假设:特征值有足够的信息量,且我们有一类很好的函数,这是为什么能保证低误差的关键所在。它有大量的训练数据集,这能保证得到更多的方差值,因此这给我们提出了一些可能的条件,如果你有大量的数据,而且你训练了一种带有很多参数的学习算法,那么这将会是一个很好的方式,来提供一个高性能的学习算法。

我觉得关键的测试:首先,一个人类专家看到了特征值x,能很有信心的预测出y值吗?因为这可以证明y可以根据特征值x被准确地预测出来。其次,我们实际上能得到一组庞大的训练集,并且在这个训练集中训练一个有很多参数的学习算法吗?如果你不能做到这两者,那么更多时候,你会得到一个性能很好的学习算法。

 

 

posted @ 2020-05-13 20:33  山上有风景  阅读(667)  评论(0编辑  收藏  举报