最近因工作需求,被安排了解一下iOS下的运动捕捉。刚开始一直在找oc有没有提供相关的api可供使用,发现没有,找到了相关的有CIDetector,通过代理方法可以获取到逐帧图片,然后对每一帧都使用CIDetector,从而可以只选择保留眨眼、微笑的照片。然后开始找有没有第三方的东西可以直接拿来用,一开始有一点走偏,一直想的是拿到其中的帧,然后逐帧比较,所以就一直在找比较两张图片不同的方法,找到了相关的opencv。其中有几个很不错的demo,里面有讲到渲染图片,做出复古的滤镜效果,还有通过摄像头实时识别人脸,给人加眼镜和胡子,十分的有意思。当找到这些的时候,也研究了一下opencv。opencv是有获取摄像头的图片,然后将图转换成单通道图片,再用直方图进行比较两张图的差异,给出一个差异值。这种方法就只是单纯的比较图片有什么不同,并不能达到运动捕捉的要求。
再后来,找到了一个十分符合的demo,也是以opencv做基础,获取到每一帧,然后通过CMT算法计算帧。参考博客,还有一个现实轮廓的博客,也很有意思。