机器学习笔记(11)-异常检测-孤立森林

机器学习笔记(11)-异常检测-孤立森林

孤立森林(Isolation Forest,iForest)是一种异常检测算法,是西瓜书作者周志华老师的团队研究开发的算法,一般用于结构化数据的异常检测,是一种树模型。思想和决策树、随机森林都极其相似。

iForest对于样本的假设有两点,当样本不符合下面两点时,不建议使用:

  1. 异常点很少,占样本中的比例很低
  2. 异常点与正常数据点的差异较大,并且彼此间的分布较为稀疏

根据上述第二点假设,说明该算法模型并不适用于异常点聚集为一小簇的情况。如下图:

该算法同样不考虑时序特征,样本间互相独立。

下面来介绍下该算法的原理和思想:

和随机森林中每颗决策树根据样本属性维度切割类似,iForest也有若干棵iTree(孤立树)组成,每棵iTree由数据样本的维度进行划分,最后将每个样本划分到iTree的左右叶子节点中,所以iTree是一棵二叉树。

iForest算法可以分为两个步骤:

  1. 建立iTree:根据样本建立若干棵iTree
  2. 打分:利用建立的iTree对样本进行打分

数据样本:假设有\(N\)个数据样本点,每个样本的维度是\(p\)维。

建立iTree

  1. 设定树的高度\(h\)和树的个数\(t\)棵;
  2. 从所有\(N\)个样本数据中随机选取\(m\)个数据样本,用于建立一棵iTree;
  3. 随机从\(p\)维中选取1个维度,该维度的值\(q\)为随机选择位于\(m\)个样本在该维度下的值,用于分割\(m\)个样本点;
  4. 分割\(m\)个样本,大于分割值\(q\)的作为左子树,小于的作为右子树;
  5. 反复执行3~4两步,直到到达树的限制高度\(h\)或将样本全部划分到叶子节点中。

打分

由于划分维度和维度的值都是随机的,所以我们需要反复建立iTree,结果取均值来确保结果稳定。

建立完成\(t\)棵树后,采用打分函数:

\[score(x)=2^{-\frac{E[h(x)]}{\frac{1}{t}\sum_{i=1}^{t}h_{i}}} \]

其中\(E[h(x)]\)表示样本x在所有构建的iTree中的高度的期望值,\(\frac{1}{t}\sum_{i=1}^{t}h_{i}\)表示每棵iTree的最大高度的均值。

根据上面的打分函数可以很明显看出,越正常的样本在iTree中的深度越大,对应的\(h(x)\)就越接近iTree的高度,score就越接近0.5,而异常点的score越接近1。

总结一下:

  1. 使用iForest时需要反复构建iForest,使随机性降低,结果收敛。
  2. 迭代次数越多,iTree构建越多,结果越稳定、准确。
posted @ 2020-06-25 12:26  Epir  阅读(646)  评论(0编辑  收藏  举报