Reading papers_13(gesture recognition survey,ing...)
摘要:1、Mitra, S. and T. Acharya (2007). "Gesture recognition: A survey." Systems, Man, and Cybernetics, Part C: Applications and Reviews, IEEE Transactions on 37(3): 311-324. 这是一篇07年的关于人体姿势识别的综述性文章,不过文章的重点是放在手势识别以及人脸识别的介绍中。作者在介绍姿势识别的应用场合和一些手势识别的分类后,重点是介绍手势和人脸识别的一些模型工具。并且详细介绍了这些模型的基本原理以及这些模型与手势识
阅读全文
posted @
2012-10-31 10:12
tornadomeet
阅读(2224)
推荐(1) 编辑
Reading papers_12(Attention Based Detection and Recognition of Hand Postures Against Complex Backgrounds)
摘要:论文内容介绍: 这是一篇2012年8月份发表在IJCV的文章,文章中主要实现的功能是手势的分割和识别,即对静态图片中10个数字的手势进行识别,这些手势都是处于复杂的背景下。识别算法最后在作者的NUS-II手势数据库中可以达到94%以上的识别率。 文章中主要采用了2个方面的理论,第一个理论是用数学模型来模拟人大脑皮层中与视觉区域有关的部位。神经科学研究发现,人的视觉皮层可以分为5个部分,分别为V1~V5。其中V1属于初级视皮层,V2~V5是纹外皮层。V1,V2完成的是目标检测的功能,V3,V4,V5完成的是目标识别。文章中所用的数学模型理论主要是对大脑视觉皮层模拟的一个简化,这里只是...
阅读全文
posted @
2012-10-26 21:54
tornadomeet
阅读(1653)
推荐(0) 编辑
Kinect+OpenNI学习笔记之9(不需要骨骼跟踪的人体手部分割)
摘要:前言 手势识别非常重要的一个特点是要体验要好,即需要以用户为核心。而手势的定位一般在手势识别过程的前面,在上一篇博文Kinect+OpenNI学习笔记之8(Robert Walter手部提取代码的分析) 中已经介绍过怎样获取手势区域,且取得了不错的效果,但是那个手势部位的提取有一个大的缺点,即需要人站立起来,当站立起来后才能够分隔出手。而手势在人之间的交流时,并不一定要处于站立状态,所以这不是一个好的HCI。因此本文介绍的手势部位的提取并不需要人处于站立状态,同样取得了不错的效果。 实验说明 其实,本实验实现的过程非常简单。首先通过手部的跟踪来获取手所在的坐标,手部跟踪可以参考本...
阅读全文
posted @
2012-10-19 12:54
tornadomeet
阅读(7158)
推荐(3) 编辑
Kinect+OpenNI学习笔记之8(Robert Walter手部提取代码的分析)
摘要:前言 一般情况下,手势识别的第一步就是先手势定位,即手势所在部位的提取。本文是基于kinect来提取手势识别的,即先通过kinect找出人体的轮廓,然后定位轮廓中与手部有关的点,在该点的周围提取出满足一定要求的区域,对该区域进行滤波后得到的区域就是手部了。然后利用凸包和凹陷的数学几何方法,画出手指和手指凹陷处的点,以及手的轮廓线,并在图像中显示出来。文章所有代码都是网友Robert Walter提供的,它的代码下载网站为:http://dl.dropbox.com/u/5505209/FingertipTuio3d.zip 本人因为要做这方面的研究,所有本文只是读了他的代码,并稍加分析...
阅读全文
posted @
2012-10-18 09:34
tornadomeet
阅读(12229)
推荐(1) 编辑
Kinect+OpenNI学习笔记之7(OpenNI自带的类实现手部跟踪)
摘要:前言 本文主要介绍使用OpenNI中的HandsGenerator来完成对人体手部的跟踪,在前面的文章Kinect+OpenNI学习笔记之5(使用OpenNI自带的类进行简单手势识别)中已经介绍过使用GestureGenerator这个类来完成对几个简单手势的识别,这次介绍的手部跟踪是在上面简单手势识别的结果上开始跟踪的,这是OpenNI的优点,微软的SDK据说是不能单独对手部进行跟踪,因为使用MS的SDK需要检测站立人体的骨骼,然后找出节点再进行跟踪,不懂最新版本的是否支持这个功能。而此节讲的OpenNI完成手部的跟踪就不要求人必须处于站立姿势。 开发环境:QtCreator2.5....
阅读全文
posted @
2012-10-11 19:54
tornadomeet
阅读(5855)
推荐(1) 编辑
Kinect+OpenNI学习笔记之6(获取人体骨架并在Qt中显示)
摘要:前言 MS的kinec SDK和OpenNI都提供了人体骨骼跟踪的算法,人体骨骼跟踪算法在kinect人体行为识别中非常重要,该识别过程通常被用来作为行为识别的第一步,比如说,通过定位人体中的骨骼支架,可以提取出人手的部位,从而可以把手的部分单独拿出来分析,这样就达到了手势的定位,而后面的手势识别则可以在刚刚定位出的领域进行处理。总而言之,一套有效的人体骨架追踪算法在kinect的一系列应用中非常有用,不过MS SDK和OpenNI虽然都提供了该算法类的直调用,但是其源码并没有开放,毕竟这是人家最核心的东东。 开发环境:QtCreator2.5.1+OpenNI1.5.4.0+Qt4....
阅读全文
posted @
2012-10-03 10:48
tornadomeet
阅读(10985)
推荐(0) 编辑
Kinect+OpenNI学习笔记之5(使用OpenNI自带的类进行简单手势识别)
摘要:前言 因为OpenNI可以获取到kinect的深度信息,而深度信息在手势识别中有很大用处,因此本文就来使用OpenNI自带的类来做简单的手势识别。识别的动作为4种,挥手,手移动,举手,往前推手。通过后面的实验可以发现,其实提供的类的效果非常不好。 开发环境:QtCreator2.5.1+OpenNI1.5.4.0+Qt4.8.2+OpenCV2.4.2 实验说明 跟手势相关的是GestureGenerator这个类,它的初始化过程和depth_metadata,image_metadata都一样,因此首先在上2篇文章的COpenNI类中增加一个public类对象GestureG...
阅读全文
posted @
2012-10-02 08:39
tornadomeet
阅读(7675)
推荐(1) 编辑
Kinect+OpenNI学习笔记之4(OpenNI获取的图像结合OpenCV显示)
摘要:前言 本文来结合下opencv的highgui功能显示kinect采集得来的颜色图和深度图。本来在opencv中自带了VideoCapture类的,使用该类可以直接驱动kinect设备,具体的可以参考下面的文章:http://blog.csdn.net/moc062066/article/details/6949910,也可以参考opencv提供的官方文档:http://docs.opencv.org/doc/user_guide/ug_highgui.html。这种方法用起来非常简单,不需要考虑OpenNI的驱动过程,有点像傻瓜式的操作。不过本人在使用该种方法时kinect一直驱动不成...
阅读全文
posted @
2012-10-01 18:11
tornadomeet
阅读(11622)
推荐(1) 编辑