2024年1月6日发(作者:)
第29卷第6期2012年6月计算机应用研究ApplicationResearchofComputersV01.29No.6Jun.2012基于视觉的移动机器人可通行区域识别研究综述朱效洲,李宇波,卢惠民,张辉(国防科学技术大学机电工程与自动化学院,长沙410073)摘要:实现实时;隹确的可通行区域识别,是户外环境下移动机器人导航的重要组成部分。对基于视觉的移动机器人可通行区域识剐研究进行了综述,首先介绍了移动机器人视觉导航常用的视觉系统,并从障碍物检测、地形分类两个方面介绍了该问题研究的进展,最后对该领域的技术发展趋势进行了探讨。关键词:移动机器人;视觉;障碍物检测;地形分类;可通行区域中图分类号:TP24文献标志码:A文章编号:1001—3695(2012)06—2009.05doi:10.3969/j.issn.1001-3695.2012.06.002Researchonvision—basedtraversableregionrecognitionformobilerobotsZHUXiao-zhou.LIYu—b0.LUHui-rain.ZHANGHui(CollegeofMechatronicsEngineenng&Automation,NationalaccurateUrtivexsi。yofDefenseTechnology,Changsha410073.China)toAbstract:Realizingandreal-timetraversableregionrecognitionisindispensableamobilerobotsnavigationinout-doorenvironments.Thispapergaveresearchonvision—basedtraversableregionrecognitionformobilerobots.Itintroducedtwothecommon・usedvisionsystemsinvision—basedmobilerobotsnavigatinnandde∞ribedthedevelopmentofthisissuefrom∞ped8:obstacledetectionandterrainclassification.Intheend,itproposedtheprospectivetechnicaltrends.Keywords:mobilerobot;vision;obstacledetection;terrainclassification;traversableregion视觉系统。单目视觉系统使用单个摄像机作为传感器感知周0引言利用传感器榆测周围环境并根据所得信息对可通行区域进行识别。是移动机器人自主导航的核心问题之一。文献[1j首次引入可通行性概念来描述机器人是否能够通过特定区域,文献[2]将可通行性定义为可以通过的能供性。对移动机器人来说,有两种危险会造成环境区域的不可通行,其中几何危险是指因几何特征导致其不可通过的物体或地形;非几何危险是指因密度、粘度等特性而会妨碍其运动或使运动完全停止的地形”j。因此.可通行区域町定义为移动机器人所处环境中不包含几何和非几何危险的区域。可通行区域的判断除受制于机器人移动特性外,还与周围障碍物分布和地形特征等息息相关。在机器人移动特性已定的情况下,如何实时准确地检测障碍物,对地形进行分类以分别检测出周嗣环境中的几何和非几何危险,是解决可通行区域识别问题的关键。视觉是人类观察、认知世界的重要功能和手段,人类从外界环境获取的信息中约有75%来自视觉系统。相比其他传感器,视觉传感器最接近人类的环境感知方式.能够提供最为丰富的感知信息。此外.视觉传感器采用被动测量,不存在多机器人同时工作时相互干扰的情况。因此,尽管有易受天气和光照条件影响等不足之处,视觉传感器仍不失为移动机器人进行环境信息采集的理想手段。围环境,结构简单。本章将主要介绍全向视觉系统和立体视觉系统。1.1全向视觉系统通常来说,获取全向图像的方法主要有两种。一种方法是使用旋转摄像机或多摄像机获取多幅图像,并将这些图像整合为-*4全向图像。尽管这种方法使用普通镜头即可实现,成像畸变小,可以获得高分辨率图像.但其结构复杂。安装标定摄像机难度较大。此外,获取伞向图所需时间较长,数据晕较大,难以满足动态环境中的实时性要求,这些缺点限制了其在移动机器人中的应用。另~种方法是利用特殊镜面或透镜,如各种鱼眼镜头和折反射式系统来一次获取全向图像。其中,鱼眼镜头结构复杂,价格昂贵,图像畸变大且畸变不满足平面透视投影约束,较常见于数码相机,在移动机器人中应用较少;折反射式系统由全向反射镜面和摄像机组成,光线经全反射镜面反射和摄像机镜头折射后成像,视角宽广、成像迅速、结构简单、价格适中,能较好地满足移动机器人的需求‘4J。在实际应用中,折反射式全向视觉系统最为常见,根据是否满足单视点约束条件,可将其分为单视点系统和非单视点系统一1。前者可依据成像模型直接展开为柱面全景图或无畸变透视图,之后的处理方法与普通透视图像类似;后者不能展开为无畸变透视图,需要采用其他方法进行处理。1常用视觉系统常用视觉系统主要有单目视觉系统、全向视觉系统和立体收稿日期:201l-12.12;修回日期:2012一01-2l1.2立体视觉系统根据所使用摄像机数目和类型,立体视觉系统可分为双目作者简介:朱效洲(1989一),男.山东济宁人.硕士研究生.主要研究方向为机器人控制(zha.xzlOll@耐1.corn);李字波(1987.),男.硕士研究生,主要研究方向为机器人控制;卢惠民(1980・).男.讲师.博士。主要研究方向为机器人视觉、图像处理;张辉(197t.).男。硕导,博士,主要研究方向为机器人控制、人工智能.万方数据
・2010・计算机应用研究第29拳立体视觉系统、多目立体视觉系统和全向立体视觉系统。双且立体视觉根据三角测距原理,从不同视点拍摄同一物体,通过该物体在拍摄所得的不同图像中的视差获取其深度信息。并以此进行三维重建。它需要解决三方面的主要闯题:a)摄像机标定。空间某点与其在图像中对应点之间的位置关系是由摄像机参数央定的。摄像机光学和几何参数称为内部参数,相对外部参考坐标系的位置和方向称为外部参数。摄像机标定的目的在于求解摄像机参数,建立图像像素坐标与实际空间坐标之间的映射关系。b)立体匹配。其实质是从双目立体视觉系统获得的两幅图像点集中寻找对应点,得到像素点间的视差值。文献[6]中指出,立体匹配算法按照不同标准可以分为不同的类别。根据采用优化方法不同.分为局部匹配算法和全局匹配算法;根据匹配基元不同。分为基于区域匹配算法、基于特征匹配算法和基于相位匹配算法;根据匹配所生成的视差图,分为稀疏视差匹配算法和稠密视差匹配算法。c)三维重建。在立体匹配完成后.即可利用摄像机标定阶段获得的内外参数,根据公式z(Ⅳ,Y)=fxb/d(x,Y)将视差图转换为深度图,并以此进行空间三维重建。其中/为摄像机焦距,b为基线长度,d(x,Y)和z(x,Y)分别为图像像素坐标为(x,Y)的像素点所对应的视差值和深度值。多目立体视觉基本原理与双目立体视觉相同,采用多台摄像机主要是为了降低匹配的模糊性,减小噪声干扰.提高测量准确度。考虑到额外增加摄像机所需的成本和处理的复杂程度.四台或更多摄像机构建的立体视觉系统很少在实际应用中出现‘”。全向立体视觉系统可利用全向视觉能够对360。范围环境进行感知的优点,其通过两套独立的全向视觉系统或者两个全向反射镜面加单个摄像机来构建¨J。文献[9]将两组独立的全向视觉系统水平排列构成立体视觉系统进行障碍物检测,但这种方式的成像系统间存在相互遮挡;文献[10]中采用垂直同轴排列方式克服了该问题.但是采用两个摄像机不可避免地使得立体图像对之间在曝光度、颜色等上存在差异;文献[1I]采用垂直同轴排列两个镜面和一个摄像机.避免了两个摄像机两次成像所带来的问题,但这种形式的系统基线较短.限制了图像的分辨率。单视点全向立体视觉系统将全向图像展开后的处理方法与传统双目立体视觉类似:非单视点全向立体视觉系统不能采用传统方法进行深度获取”J,需要考虑其他解决思路。2障碍物检测对移动机器人构成几何危险、阻碍其运行的物体或地形特征都可被称为障碍物,障碍物检测目的在于感知这些几何危险。自主导航的一个主要挑战在于判断哪些障碍物可以驶过,哪些障碍物需要避开。实时准确的障碍物检测对于移动机器人来说是不可缺少的能力。基于视觉的障碍物检测方法有很多,根据使用的视觉系统不同,主要分为单目/全向视觉障碍物检测和立体视觉障碍物检测。21单目,全向视觉障碍物检测基于特征的方法是单目视觉障碍物检测的一种主要方法,其中障碍物通常定义为与地面具有不同特征的物体。一般将万方数据图像像素点归类为前景(障碍)或背景(路面),实质上将障碍物检测转换为分类和分割问题。文献[12]使用颜色特征计算每一个像素点,将与地面颜色特征不同的像素点划分为障碍。文献[13]使用基于边缘的分割方法实现障碍物检测。首先应用C"ny算子进行边缘提取,然后通过膨胀和腐蚀处理消除阴影等造成的虚假边缘,最后得到的封闭轮廓即对应障碍物。文献[14]提出一种新的函数将图像二值化,随后通过跟踪外轮廓获取障碍物区域。基于特征的方法虽然计算量小,但前提是视觉特征与路面不同的像素点即属于障碍物,在障碍物与路面颜色、纹理等相近时会出现误识别。基于光流的方法是单目视觉障碍物检测的另外一种重要方法。基于光流的方法使用摄像机采集图像序列,根据运动计算场景结构,其检测过程大体可分为两个步骤[1“,首先通过分析图像序列光流场得到自运动;然后通过分析预期速度场与实际速度场的差异来检测障碍物。文献[16]在提取出地平面以后,利用成像平面与地平面之间映射变换矩阵的单应性原则进行障碍物检测。文献[17]将光流法获得的运动信息与立体视觉获得的三维信息相结合,解决了距离较近、移动方向不同的障碍物容易被误合并为一个的问题。对于移动机器人来说,有时需要获取全景距离信息,因为障碍物有可能从多个方向接近。全向视觉系统具有360。水平视角,能够在一张图像中获取移动机器人周围环境信息,解决了传统视觉系统视野狭窄的缺点。文献[18]首先将全向图像转换为全景图像,随后使用光流法对移动障碍物进行检测。光流法能够提供运动信息,但不能给出障碍物的准确定位,且大部分假设摄像机与环境之间只存在平移,这在真实环境中是很难满足的。2.2立体视觉障碍物检测视差图对于立体视觉障碍物检测至关重要.主要通过立体匹配获得。文献[19]将立体匹配的基本步骤归纳为四步:匹配代价计算、匹配代价聚合、视差选择和结果优化。当前的工作都是针对其中某一个或某几个步骤进行改进。匹配代价函数用来衡量两像素点间的对应关系,其计算通常在被称为支持窗口的支持域内进行.这些支持域形状可以是正方形或矩形,大小可以是固定或自适应的。计算得到匹配代价后,可以根据不同的算法为每个像素点选择合适的视差值,最简单的是获胜者全取方法,即对每个像素点来说,选取使得匹配代价最小化的视差值。文献[20~23]等采用基于区域的匹配算法获取稠密视差图,其缺点在于支持域的大小与形状选取比较困难,选取过大则深度不连续处在视差图中会出现过度平滑:选取过小则不能为特征.文献[25]采用SIFT算法,均属于基于特征的匹配算法,可以获得比较准确的视差信息;但视差图是稀疏的.需要通以满足实时性的要求。获取视差图以后,使用V一视差法进行障碍物检测是一种而V一视差法摈弃这~假设。该方法由Labaymde等人”。提出,旨在简化将障碍物与路面分离的过程,其中V指的是图像像充分利用图像信息,容易造成误匹配。文献[24]提取角点作过插值算法才能得到稠密视差图。文献[26]使用基于色彩分割的全局立体匹配算法,匹配结果比较精确,但运行时间长,难流行的方法[2‘’玩扎…。很多基于立体视觉的障碍物检测算法均假设路面是平坦的,这在实际环境中尤其是野外很难满足,素坐标系(U,V)中的垂直坐标。原图像中的平面在V一视差图
第6期朱效洲,等:基于视觉的移动机器人可通行区域识别研究综述・2011・中近似投影成直线,路面投影成分段直线.障碍物投影成竖直线段,并且该线段与表示道路直线之间的交点决定了障碍物的距离。V一视差法将三维路面和障碍物提取简化为二维直线提取,可以通过Houg}l变换或直线拟合等实现。文献[30]对V-视差进行扩展.提出U.V.视差的概念.可以获得障碍物的宽度。文献[21]中唯一的假设在于大部分区域是地面或安全地形.采用基于局部能量最大值的方法从V-视差图中提取地面主视差(MGD),其主要功能有减少处理区域和检测潜在障碍物两项。三维重建的准确度与物体距离成反比,MGD值过小意味着物体距离过远,这部分区域可以不予考虑;通过比较视差和MGD,可以检测潜在的障碍物。V-视差法虽然对道路环境要求不高,在光照、阴影和复杂背景的影响下具有较好的鲁棒性,但是其计算过程中阈值的选取主要依靠经验,如何自动选取阈值以适应环境的变化是一个需要解决的问题。根据视差获得三维点云建立模型地图也常应用于障碍物检测中。数字高程图(DEM)是比较流行的一种模型,存储一定范围内平面坐标及其高程。文献[24]利用此种模型.鉴于障碍物往往在高度方向有较大变动,采用sobeI算子在高程地图中提取边缘并进行形态学闭运算来检测障碍物。然而这种方法往往会忽视真实坡度之类的细节,通过平面拟合可以获得更准确的模型。但是这需要更多的点,加重了计算负荷量,因此主要用于可以获取浓密点云的室内环境。为了利用两者的优点,文献[31]将DEM与平面拟合相结合,在点云浓密的区域使用拟合平面来保留坡度信息,对于那些因缺少点或非平面而不适合进行平面估计的区域,利用DEM建模。文献[26]建立了带标注的二维栅格地图,称为局部安全性地图"“。地图中每个单元均带有五种标记中的一种:标记为地面的对应区域为平地,认为是安全的:标记为高于地面的对应障碍物或悬挂物,认为是不安全的;标记为低于地面的表明下降可能出现在其与地面交接处;标记为下降边缘表明对应区域是不安全的;标记为未知区域的也要避免。但是算法需要基于以下假设:可以给出机器人在局部环境中的定位;机器人在水平面上前进;机器人所处环境能用平面建模;光照条件好。然而这些前提在实际环境中难以满足。此外极透视地图p驯和双曲极地图一1均可以有效利用表征和几何信息。立体视觉可以提供丰富的颜色、深度信息,因而被广泛应用于移动机器人障碍物检测中,但是测鼍的准确性随距离的增加而降低。对于~般的双目立体视觉系统而言,超过lO~12m的距离估计经常是不可靠的mJ。这种近视的缺点也限制了立体视觉在某些场合的应用,如大范围的野外环境下的移动机器人视觉导航.需要探索新的方法或者算法解决这一问题。3地形分类自然未知地形环境中移动机器人自主导航是一门新兴的技术,难以预测、复杂多变的地形环境对移动机器人来说是一个巨大的挑战。美国国家航空航天局(NationalAeronauticsandSpaceAdminislmtion。NASA)的机遇号火星探测器分别于2005年4—6月和2006年5—6月因陷入松软地形而数周不能移动m1;勇气号火星探测器同样难逃厄运.2009年5月6日其在一个陨石坑中行驶时陷入松软地形,八个月后才得以驶出”“。由此看来,地形物理特征会极大地影响机器人移动性能。障碍物检测只能检测几何危险,不能检测出非几何危险。因此,对万方数据地形特征进行感知和分类,据此调整控制和路径规划策略,对于移动机器人避开危险区域,提升运行安全性和效率具有十分重要的意义。研究人员提出诸多方法解决地形分类问题。应用比较成功的有基于振动的方法一”和基于视觉的方法。基于振动的方法仅在机器人通过某一地形时才能对该地形进行分类,不能预知将要通过地形的情况。基于视觉的方法与机器人移动速度和载荷无关。其中,基于特征的方法是一种主要的方法.可以归结为分类问题,因此特征和分类器的选择对分类结果尤为重要。文献[28]建立了立体视差地图,利用V一视差方法检测障碍物,将地形分类为无障碍区域和有障碍物区域。这种二值化的分类难以为移动机器人提供足够的地形信息以调整自身行为。仅仅基于几何推理进行地形分类会产生模糊性.而且有些情况下这一模糊性难以消除,如高草和矮墙几何特征相似。颜色特征是一种常用的特征,因为大多数地形如土壤、植被、岩石等具有明显的差异;纹理也是该领域广泛使用的特征之一,表示方法有共现矩阵、马尔科夫模型¨“、基于纹理基元的方法㈣。等。文献[加]将图像分为有限幅帧.每帧代表实际地形的一部分,称为副地形区域。采用图像表面纹理特征,通过计算各副地形区域的能量、熵和对比度构成特征向量来对分类器进行珈练,进而对NASA火星探测器采集的图像进行分类,将图像分为岩石、砂地和平滑地形等。文献[3]采用基于纹理基元的方法¨…,同时利用颜色和纹理来区分不同地形表征块。文献[41]研究了局部纹理特征描述子,包括局部二值模式(LBP)m]、局部三值模式(m)㈤j、自适应局部三值模式(I.,ATP)‘…、SURFo“、DAISYo“3和CCH[…。通过对多种分类方法进行比较,采用随机森林(RF)算法对提取出的纹理特征进行分类,并进行交叉验证。实验能够识别出五类地形:柏油路、沙地、草地、大块砖地和小块砖地。文献[48]使用基于纹理的分类方法提出一种根据地形图预测摩擦系数的方法。颜色往往会随光照和天气变化,某些地形有多种颜色或纹理,这些都会对分类造成很大影响,因此仅使用颜色和纹理特征对地形进行分类具有一定的极限性。文献[49]使用由红外摄像机和激光组成的结构光传感器,能够在夜间对地形进行分类,其特征选取空同频率响应和纹理,使用概率神经网络进行分类,将地形分为柏油路、草地、碎石地和沙地。常见分类器包括随机森林、支持向量机(SVM)、多层感知器(MLP)、贝叶斯分类器和人工神经网络(ANN)等.将分类器融合对地形进行分类是一种常用方法。文献[36]首先使用两个底层分类器(基于混合高斯模型的极大似然估计和支持向量机)对颜色、纹理和距离特征进行分类,然后通过贝叶斯融合和元分类器融合,克服了单个底层分类器易受环境影响的缺点。文献[50]提出一种将静态和在线分类器相结合的方案,分类器由两个底层分类器构成.通过动态和静态分类器相融合对在线图像数据进行分类,提高j,适应性。此外,基于视觉的方法在地形表面被树叶、积水覆盖或因烟雾使可见度降低时会产生误分类。也难以区分具有近似表征但控制角度迥异的地形.如土地和泥地。因此,将基于振动和基于视觉的方法相结合Ⅲ’是一种更好的思路。1)多传感器融合4技术发展趋势
・2012・计算机应用研究第29卷如何协调不同传感器之间的工作.在不同层次上对多传感器数据进行融合,是确保户外移动机器人高效稳定工作的关键。立体视觉系统可以获取高分辨率彩色图像,但是需要通过算法获得距离信息才能产生三维点云.增加了计算负荷,限制了距离估计的准确度,且系统严重依赖合适的输入数据,在~些对比度低、缺少纹理特征的图像中,立体匹配可能失败。雷达、激光测距仪等距离传感器可以快速获得准确的三维点云,可以考虑综合使用这些距离传感器和视觉传感器.通过信息融合进行可通行区域识别”1‘s2]。此外,利用混合视觉系统进行可通行区域识别也是一个好的思路。可以基于全向视觉进行远距离大范围可通行区域识别,利用双目立体视觉检验上述分类结果是否正确;或者用双且立体视觉的识别结果指导基于单目视觉或者全向视觉的可通行区域分类,实现一种由近及远的机器人自监督学习技术p“。2)系统实时性如果只考虑a,通行区域识别的准确率而不顾及算法的效率,对于移动机器人视觉导航来说是没有实用价值的。如何能够在两者之间进行权衡是一个亟需解决的问题。3)基于主动学习方法的可通行区域识别现有算法将不同的机器学习方法与视觉信息处理方法相融合,主要采用有监督学习、半监督学习和自嘛督学习。有嗡督学习算法使用人工标记的数据进行离线训练,标记需要花费大量人力,离线训练限制了机器人的能力;半监督学习算法虽然减少了离线的训练量,但是算法往往不稳定;自监督学习方法可以消除人工标记数据的负担,但只针对稳定的感兴趣区域闺j。很多情况下未标记的数据很容易获得,但是对数据进行标记却极为困难、耗时。主动学习方法m1不再被动地接受由用户提供的样本,而是通过询问要求用户对有价值的样本进确的结果,将标记的代价降至最低。因此,基于主动学习方法基于视觉的可通行区域识别,有助于移动机器人更好地完力,提升机器人运行安全性和效率,为复杂环境下移动机器人自主导航问题的研究注入崭新活力。参考文献:[1]LANGERD,ROSENBLATrJ.HERBERTM.Abehaviorbasedsys-ternforoff-roadnavigation[J].IEEETransonRoboticsandAuto-mation,1994,10(6):776—783.E,SAHINE.Travenmbility:acasestudyforlearningandpemeiving日It'ordancesinrobots[J].AdaptiveBehavior:Animals,Animals,SoftwareAgents,Robots,AdaptiveSystems,2010,18(3-4):258.284.D.ANGELOVAA。MAYrHlESLTerrainadaptivenavi-gafionforplanetaryrovers[J】.,JournalofFieldRobotics,2009,26(4):391.410.学技术大学.2010.科学技术大学.2010.万方数据【7】'WiLLIAMSONTA.Ahigll—perfo㈣slertovisionsystemforoh-st日cledetection[D].Pittsburgh:CarnegieMellonUniversity,1998.[8]ARGYROSAA,BEKRISKE,ORPHANOUDAK培SC。群a/.Ro-hathomingbyexploitingpanormmevision[J】.JoumalofAutono-mou8Robots。2005,19(I):7-2.5.[9]GuRKAHfLAMANK,UNSALE,CEBIY.Omni-direetionalvisionsystemwithfibregratingdeviceforobstacledeteetlon[J].IETcom-puterVision,2011,s(5):267-281.[10]YUANPei—hanan,YANGKuo-fang,TSAlwen—118iang.Secmib,mD-nitofingaroandavideosurveillancecarwithapair0ftwo—cameraore-niMirectionalimagingdeHc∞[C]//PineofIntematienalComputerSymposium.2010:325・330.[11】su“all-cheng,LUOChuan-jiang.ZHUFeng.ObtainingobstacleinformationbyⅫunmi-directionalstetmovisionsystem[C]//ProeofIEEEInternationalConferenceonlnlonnationAcquisition.2006:48・52.[12】ULRICHI,NOURBAKHSHI.Appearance-basedobstacledetection诚thmonocularcolorvision[c】//Procofthe17tI-AAAINationalConferenceonArtifieialIntelligence.2000:886-871.A,BEKEN,NANDUR!S,口“.AdvancedsituationalawamIl∞8andobstacledetection咖anmnocularesnlela[C】//ProcofWesternNewYorkImageProcessingWorkshop.2010:30—33,Yong-quan,ZHIJun,HUANGMin,ela1.Anobstaclese掣nen—rationapproachinALVsystem【C】//Procofthe2adInternationalSymposiumonInteHigentInformationTechnologyApplication.2008:259.262.方法[M].北京:科学出版社。2009:248,A。MISHBAP,RAKSHITS,酏a/.Real—timegroundplanesegmentationandobstacledetectionformobilerobmnavigation[C]ItPineofInternationalConferenceonEme瑁ngTrendsinRoboticssadCommunicationTechnologies.2010:314-317.CD,NEDEVSCHis.Real-timeobstacledetectionincomplexseenari,m面TIgdensestet'mvisionandoptic日Iflow[C]//Proeofthe13thInternationalIEEEAnnualConfemneeonIntelligentTransportationSystems.2010:439—444.J,SUGAY.Anonmi-directionalvieiun-basedmovingobstacledetectioninmobilembot[J】.JournalofContr01.Automation,andSystems.2007,5(6):663—673,D,SZELISKIRAtmtonomyandevaluationofd∞∞two—franl@stereocorrespondencealgorithms【J].InternationalJour-nailofComputerVision,2002,47(】/2仃):7-42.RA,ROS“HN,HAMIDS.Anobstacledel∞tionandavoidanceofBmobilerobotwithster∞vieioncamera[C]//ProcofInternationalConferenceonElectronicDevices.SygtelnsandApplica-tions.201I:104,108.Yang,PENGJnn-jian。SUNJing,eta/.V-disparitybasedUGVohstacledetectioninl-ollr曲outdoorterrain[J】.ActaAutomaticSinica,2010,88(5):667-673.S.DEHNAVIHM.MOALLEMP.Arobustobstacledetec—tionmethodinhi出ytexturedenvironmenlsusingstereovision[c]//Procofthe2ndInternatiomdConferenceonMaehineVision.Wash—illgtonDC:IEEEComputerSociety,2009:97-100.N,SCHMITR.Pa.SQUETF.d02.Stereovlsion—based3Dobstacledetectionforautomotivesafetydrivingasaistunce[C]∥行标记。通过这一途径可以突破瓶颈,用尽量少的标记获取准对可通行区域进行识别将成为一种新的发展趋势。[13]BHOITE[14】XIA[15]蔡自兴,贸汉根,陈虹.未知环境中移动机器人导航控制理论与[16】JAMAL[17】PANTILIE5结束语成对周围环境的感知.能够极大地增强移动机器人的自主能[18]KIM[19]SCHARSTEIN[20]HAMZAH【2】UGUR[21]CONG[3]HELMlCK[22】FAZLI【4】卢惠民,自主移动机嚣人全向视觉系统研究[D].长沙:国防科[5】陈旺.折反射奎向图像深度信息提取技术研究[D].长沙:国防[6】翟振刖.立体匹配算法研究[D].北京:北京理工大学.2010.[23]VENTROUX
第6期朱效洲,等:基于视觉的移动机器人可通行区域识别研究综述-2013・Procofthe12th|nternationalIEEEConferenceonIntelligentTraus-portationSystems.2009:394-399.[24]ULin・hui,WANGRong—ben。ZHANGMing—hens.Studyonstereovision・baBedat'off8・countryobstacledetectiontechnologyforintelligentvebiclc[c]//Procofthe3rdInternationalConferenceonNaturalComfluta,jon.WashingtonDC:IEEEComputerSociety.2007:719—723.[25jSRAONuan,LIHut—guang.LIULe,efat.Stereovisionrobotobsm—cledetectionbosedelltheSIFr[c]//Procofthe2ndWRIGIob旦lCorqp”ssollIntelligentSystems.WashingtonDC:IEEEComputerSo-ciety。2010:274・277.[26]MURARKAA.SRIDHARANM,KUIPERSB.Detectingobstaclesanddrop-ofl毒usingstereoandmotionc哪for船felocaltrⅪtion[C]//ProcofIEEE/RSJInternationalConferenceonIntelligentRobotsandSystems.2008:702—708.[27]KOSTAVELISI.NALPANTIDLSL,GASTERATOSA.Supervisedtraversa|bilitylearningforrobetnavigation[C】//Proeofthe12thAn・nualConferenceoilTowardsAutonomousRoboticSystem.Berlin:Springer-Verlag.201I:289-298.[28】CUBBERGD,DOROF.I匿ID.NALPA_N们DJsL,eta/.Smerao-basedterraintesversabilityanalysisforrobotnavigation[C】//Procofthe3rdWorkshoponRoboticsforRiskyInterventionsandEnviron-mentalSurveillance.2009,[29]LABAYRADER,AUBERTD,TARELJP.Realtimeobstaclede-teedoninstereovisiononBOllflatroadgeometrythrouglIV-dispathyrepresentation【C]//ProcofIEEEIntelligentVehicleSymposium.2002・646-651.[30]HUZhen・cheng,UCHIMURAK.U-V-disparity:∞efficient蜘rithmforstereovisionbasedsceneanalysis[C】//ProcofIEEEInteUi—gentVehiclesSymposium.2005:48—54.(3l】BRAUNT,BITSCHH.BERNSK.Visualterraintraversabilityesti—nmtionusingacombinedslope/elevationmodel[C]//Procofthe31atAnnualGermanConferenceollAdvancesinArtificialIntelligence.Berlin:Springer—Verlay.2008:177-184,(32]MURABKAA.MODAYILJ.KUIPERSB.Buildinglocalsafetymapsforswheelchairrobotusingvisionandla8ers【C]//erocofthe3rdCanadianConferenceonComputerandRobotVision.WashingtonDC:IEEEComputerSociety.2006:25.32.【33】BAJRACHARYAM.HOWARDA,MATrHIESLH,da/.Autono-alonsoff-rodnavigationwithend・to-endlearningfortheLAGRpro-gram[J],JournalofFieldRobotics.2009,26(1):3-25.[34]SERMANETP。HADSELLR.SC(}FFIERM。et耐.Amuhirangeat-ehitectureforcollision-freeoff-roadrobotnavigation【j].JournalofFieldRobotics.2009.26(1):52.87.[35]HADSELLR,SERMANETP,ERKANAN.ela1.Onlinelearningfor胡‰adrobots:usingspatiallabelpropagationtolearnlong-rangetravemability[C]//ProeofRobotics:ScienceandSystems.2007.[36]H^LATal,BROOlcsCA.IAGNEMMAK.Terrainclassificationandclassifierfusionforplanetaryexplorationrover8[c】//Proc0fIEEEAerospaceConference.2007:l一¨.[37]ODEDRAS,Usilgunmannedgroundvehicleperformancemaasul'e—mentb∞auniquemethodofterrainclassification[C]//Pineof[EEE/RSJInternationalConferenceonintelligentRolmsandSy8-tams.2.0ll:286—291.[38】VERNAZAP,TASKABB.LEEDD.Online,№m"per”sedted'-rainclassificationviadiseriminativelytrainedsubmodularMatkovtan.万方数据dorafields[C】//PtocofIEEEIntematioradConferenceonRoboticsandAutomation.2008:2750—2757.[39]VARMAM,ZISSERMANA.Testureclassification:atefilterbanksnece∞aty?[C]//PmcofIEEEComputersocietyConference0nComputerVisionandPatternRecognition.2003169l一698.[柏]¥OUNDBAPANDIANKK,MATHURP.Traversabilityasse∞nloutofterrainforautonomousrobotnavigation[C]//PrecofInternationalMulticonfercnceofEngineersandComputerScience.2010i1296—1289.[41]KHANYN.KOMMAP,BOHLMANNK,eta/.Grid-basedvisualterrainclassificationforouMoormbtt“tsusinglocalfeatures[c】//ProcofIEEESymposiumonComputationalIntelligenceinVehiclesaadTransportationSyat*ms-2011t16—22.【42]OJALAT.PIETIKAINENM,MAENPAAT.Multiresolutiongray.santaandrotationinvariaJxttegtatecl越siBeationwithfoealbiJmsypat-terns[J].IEEETransonPa'[【emAnalysisandMachineInteni・gence,2002,24(7):971・987.[43]TANXian-yang。TRIGGSB.Enhancedlocaltexturefeature蛐forfacerecognitionunderdifficultli#ringconditions【J].IEEETransoDImagoProcessing.2010.19(6):1635.1650.[44]AKHLOUFIMA,BENDADAA.Locallyadaptivetextuitfoatmesformultispectralfacerecognition[Cj//PrecofIEEELatemationalco乎fei'Ll'leeoilSystems.Man.andCybcmetics.2010:3308—3314.[45]BAYH,TUYTELAARST,COOLLV.SURF:speeded叩robustfeatures[C]//ProcofEuropeanConferenceuoCompeterVision.2006:404-417.[46】TOLAE,LEPETITV,FUAP.DAISY:∞efficientdensedescriptorappliedtowide・baselinestereo[J】.fEEETmnsonPatternAnaly-sisandMachineIntelligence,2010.32(5):815—830.[47]HUANGChun-rang,CHENChu—song,EHUNGPau-Choo.Contrastcontexthistogram;odiscriminatinglocaldescriptorforimagematching[C]//Procofthe18thInternationalConferenceenPatternRecogni・tion.WashingtonDC:IEEEComputerSociety,2006:53—56[48]KIMJ,KIMD,LEEJ,et谢.Non.contactterrainclassificationfor8ntonoraouBmobilerobot【C]//ProcofIEEEIntemationalConferenceonRe]retiesandBiomimeties.Pil;cataway:IEEEPm%。2009:824—829.[49]LULiana.ORDONEZC,COLLINSEG,ct以.Terrainsuffaseclas-sificationforautonomousgrouIIdvehiclesusinga2Dlaserstripe—basedstructuredtightsellerfE]//Procof1EEE/RSJInternationalConfe-ItneeonIntelligentRobotsandSystems.2009:2174—2181.[50】JAKKOJUC.KHISHNAKM.JAWAHARCV.Anadaptiveoutdoorterrainclassificationmethodology.usingmonocularcfllD_arn【C】//ProcofIEEE/RSJInternationalConferenceonIntelligentRobotsandSys・terns2010:766-771.[51]BAGNELLJA.BRADLEYD,SILVERD,“a1.[earningforatltOll.omensnavigation[J】.IEEERobotics&AutomationMagazine.2010,,z(2):74—84.[52]NGUYENDV,KUHNERTL,JIANGT,el耐.Anovelapptmehofterrainclassificationforoutdoorautomobilenavigation【c】//PineofIEEEInternationalConferenceonComputerScieneeandAutomationEngineering.2011:609—616.[53]庄严,陈东,王伟。争.移动机器人基于视觉室外自然场景理解的研究与进展[J].自动化学报.2010,36(】):l-11.f54]SETI'LESB.Aetirelearningliteratureonrvey[R].Madison:Univer-sityofWisconsin.Madison.2009.


发布评论