内容发布更新时间 : 2024/12/25 22:39:49星期一 下面是文章的全部内容请认真阅读。
龙源期刊网 http://www.qikan.com.cn
基于结构光的特征点提取方法研究
作者:王鹏 赵汗青
来源:《软件导刊》2017年第12期
摘要:特征提取是基于视觉定位的关键,只有选择合适的特征及特征提取方法才能确保定位精度。选取结构简单、成本低且易实现的单目视觉定位技术作为研究对象,以屋顶上的结构光点作为观测数据来源。为得到耗时少、提取数目满足定位需求的特征点提取算法,对 Moravec、Harris、Harris-Laplace、SUSAN、DoG、FAST等6种特征点提取方法进行比较,选出适合该环境下的特征点提取方法。实验表明,在提取结构光环境下,FAST特征点提取耗时优于其它算法,并且提取数目满足定位所需点数目。 关键词:特征点提取;单目视觉;顶视;自主移动机器人 DOIDOI:10.11907/rjdk.172771 中图分类号:TP301
文献标识码:A 文章编号:1672-7800(2017)012-0026-04
Abstract:Feature extraction is the key of visual positioning, and only the selection of appropriate features and feature extraction methods can ensure the accuracy of positioning. In this paper, the technology of simple structure, low cost and easy to achieve the single vision positioning is used as the research object, and the structural spot of the roof is used as the source of observation data. In order to get less time consuming, extraction number positioning requirements of feature points extraction algorithm, this paper contrast Moravec, Harris, Harris - Laplace, SUSAN, DoG, FAST six kinds of feature point extraction method in extracting the number of structure light and time consuming, finally choose the feature point extraction method is suitable for the environment. The test proved that, in extracting the structure light environment, FAST feature point extraction time is better than other algorithms and the number of extracted points can be obtained.
Key Words:feature point extraction; monocular vision; upward-looking camera; autonomous mobile robot 0 引言
自主移动机器人视觉定位是近年来发展起来的一种定位方法,该方法在实时数字摄影测量、机器人运动导航、飞行器主动视觉定位等领域具有重要的使用价值[1]。特征点是基于特征的视觉定位关键,影响着特征点匹配及相机位姿的解算。特征点提取的类型分为狭义特征点和广义特征点两种。狭义特征点通常指在二维方向上灰度较邻域有明显变化的像素点,包括角
龙源期刊网 http://www.qikan.com.cn
点、交叉点、明显点和圆点等;而广义特征点只代表满足一定特征条件的特征区域位置,如某个特征区域的中心、重心或特征区域里任一个相对位置[2]。 1 特征点提取方法 1.1 Moravec特征点提取
1977年Moravec提出利用灰度方差提取点特征的概念,并且用于Stanford Cart。Moravec算子是在4个主要方向上选择灰度方差最值(最大—最小)作为像素的兴趣值。通过设定一个阈值,筛选兴趣值大于阈值的像素点作为候选点。在候选点中选取最大值点作为特征点提取算子[3]。
Moravec算子提取步骤如下:
(1)计算各像元的兴趣值IV(Interest VaIue)。在(x,y)为影响中心的w×w影像窗口内计算4个方向的灰度差分。 1.4 SUSAN特征点提取
1997年牛津大学的Smith等人提出SUSAN算法,它主要用来计算图像中的角点特征。SUSAN算法选用圆形模板,待检测点位于圆形模板中心,该像素点称为核心点。核心点的邻域划分为两个区域:亮度值相似于核心点亮度的区域和亮度值不相似于核心点亮度的区域[7-8]。
SUSAN角点检测算法步骤如下:
(1)将一个拥有37个像素的圆形模板放置于图像上,在图像上滑动模板,计算模板内各像素点和模板核的灰度差值,判断是否属于USAN区域。
对同一幅图片进行3个参数高斯滤波,而后两两相减(包括原尺度共4个)得到3个不同尺度下的DoG图,求中间尺度下的DoG图的每个像素,以及同尺度的8个相邻点和上下相邻尺度对应的18个像素点极值。如果所计算的像素点是所有相邻像素点的最大值(最小值),则该点对应的点为特征点。
高斯差分检测法不仅在点的邻域空间,而且在点的尺度空间寻找高斯差分函数极值,因此对尺度变化的图像鲁棒性很好。 1.6 FAST点特征提取
FAST算法是由 Edward Rosten和Tom Drummond 提出的一种简单快速的角点检测算法[10]。此算法选取角点的方法与 SUSAN 算法类似。以候选点p为圆心,半径为R的圆上,如
龙源期刊网 http://www.qikan.com.cn
果存在连续并且足够多的像素点灰度值,大于(小于)中心点灰度值的一定阈值,则该点选作角点。因为FAST 算法只比较圆上的像素点灰度值,而不比较圆内的像素点灰度值,因此FAST的运算速度比 SUSAN 快。
式中:Ip代表p点的像素值,Ip→i代表圆周上第i个像素点,n是一个参数,得到的结果Sp→i有3 种取值:d代表比检测点暗,s代表与检测点相似,b代表比检测点亮。为了加快检测速度,可以先检测第1和第9两个像素点,如果都为相似,则不把该点选择为候选点;而后检测 5和 13,若以上4个值中有3个值都是暗或亮,则将此点作为候选点,继续计算其它像素值。如果检测的16个点中有至少m个连续为暗或者亮,则该点确定为特征点。通过大量文献可知m为9时提取效果最佳,即FAST-9。 2 实验
平台如图1所示,左边是自主移动小车,右边是利用相机获取的带有结构光的图,图片大小是640*480。
对实验图片进行特征点提取。比较Moravec点特征提取、Harris点特征提取、Harris-Laplace点特征提取、SUSAN点特征提取、DoG点特征提取、FAST点特征提取。最后对比各个方法在此幅图片中的特征点提取数量,以及提取所用时间。
图2中,从左到右依次是Moravec点特征提取、Harris点特征提取、Harris-Laplace点特征提取;图3中,从左到右依次为SUSAN点特征提取、DoG点特征提取、FAST点特征提取。 根据实验结果进行分析,找出适合提取结构光的方法。实验得出结论:按照提取特征点花费时间排序:SUSAN>DoG>Moravec>Harris>Harris-Laplace>FAST,按照提取特征点数目多少排序:Moravec>Harris-Laplac>DoG=FAST>Harris>SUSAN=150。这几种方法提出的特征点足够完成特征点匹配、地图初始化以及相机位姿计算任务。根据时间短数量多的原则,应该选择FAST作为此环境提取特征点的方法。 3 结语
本文通过实验比较了Moravec、Harris、Harris-Laplace、SUSAN、DoG、FAST六种方法提取结构光特征点效果,得出FAST方法是最适合此环境的结论,为之后的特征点匹配及机器人位姿计算奠定了基础。因为提取出的特征点数目多,本文只对特征点进行了初步分析,未能制定更加全面的筛选策略。由于编程的原因,提取特征点未能达到实时处理,未来需进一步研究。
参考文献:
[1] 王鑫.基于单目视觉的目标物定位算法研究[D].哈尔滨:哈尔滨工业大学,2016.