Evaluation of Interest Point Detectors

这篇论文是2000年的,比较老了,现在可能提出了其它的特征点评价方法,不过这篇文章中提到的两种方法应该算是比较经典的吧。现在用的人也很多,所以还是值得一看的。论文中主要对当时比较火的描述子进行评价,如Harris,当时描述子研究貌似也是起步不久的样子,还木有SIFT呢,就十几年的时间,描述子这块的研究发展还真快呐。费话少说,直入主题吧。

  

现在存在很多feature detectors,然后那个的performance更好呢?这就需要一个普适的特征点评价方案。一般有两个评价指标:repeatability 和 information content

(1) repeatability:是对特征点检测算法的评价指标。

即图片通过加噪,rotation,scale change,variation of illumination,viewpoint change,该特征点同样能够被告检测到,这就是一个robust的特征点检测算法。设n1,n2为在两幅图片中检测到的兴趣点数目,R为同时在两幅图片中出现的兴趣点数目。

repeatability=R/min(n1,n2)。由于检测方法具有某些不确定性,因此不能对兴趣点的位置要求太过精确,因此只要兴趣点出现在目标位置的一个领域中我们即认为,该兴趣点重复出现。

在论文中,将变形分为不同等级,如视角变化,视角从最左到最右变化(图片放置位置不变,照相机变化),作者评价不同视角的图片的repeatibility,显然正中的repeatibility最大,最左或最右的最小。

(2)information content是对兴趣点描述子的评价指标,评价描述子的distinctiveness,即要求不同的兴趣点具有不同的描述子,如果不同的兴趣点具有相同或相似的描述子,那么在做匹配的时候就会出现问题,因为每个点都可以与它进行匹配。而如果描述子的分布比较分散,那么该描述子的performance将会更好。因此我们的目标即度量该描述子的信息量,在信息学中,通过正式来计算信息量:I=log(1/p)=-log(p),如果p=1,那么事件必然发生,因此没有携带任何信息量,反之,如果p很小,说明该事件发生几率比较小,那么他携带的信息量大。通过熵计算平均信息量。

通过以下步骤计算描述子的信息量:

  1. 检测数据集中图片的兴趣点
  2. 通过某种特征提取方法提取特征点描述子
  3. normalize描述子
  4. 将描述子通过某种方式划分为几个区域
  5. 计算每个区域的概率
  6. 计算熵,熵越大表示信息量越大

虽然现在有很多描述子,但这以上两种评价指标却是通用的。

 

 

posted @ 2014-03-28 20:31  dupuleng  阅读(447)  评论(0编辑  收藏  举报