资源描述
精选优质文档-倾情为你奉上第十一章深度图获取场景中各点相对于摄象机的距离是计算机视觉系统的重要任务之一场景中各点相对于摄象机的距离可以用深度图(Depth Map)来表示,即深度图中的每一个像素值表示场景中某一点与摄像机之间的距离机器视觉系统获取场景深度图技术可分为被动测距传感和主动深度传感两大类被动测距传感是指视觉系统接收来自场景发射或反射的光能量,形成有关场景光能量分布函数,即灰度图像,然后在这些图像的基础上恢复场景的深度信息最一般的方法是使用两个相隔一定距离的摄像机同时获取场景图像来生成深度图与此方法相类似的另一种方法是一个摄象机在不同空间位置上获取两幅或两幅以上图像,通过多幅图像的灰度信息和成象几何来生成深度图深度信息还可以使用灰度图像的明暗特征、纹理特征、运动特征间接地估算主动测距传感是指视觉系统首先向场景发射能量,然后接收场景对所发射能量的反射能量主动测距传感系统也称为测距成象系统(Rangefinder)雷达测距系统和三角测距系统是两种最常用的两种主动测距传感系统因此,主动测距传感和被动测距传感的主要区别在于视觉系统是否是通过增收自身发射的能量来测距。另外,我们还接触过两个概念:主动视觉和被动视觉。主动视觉是一种理论框架,与主动测距传感完全是两回事。主动视觉主要是研究通过主动地控制摄象机位置、方向、焦距、缩放、光圈、聚散度等参数,或广义地说,通过视觉和行为的结合来获得稳定的、实时的感知。我们将在最后一节介绍主动视觉。111 立体成象最基本的双目立体几何关系如图111(a)所示,它是由两个完全相同的摄象机构成,两个图像平面位于一个平面上,两个摄像机的坐标轴相互平行,且轴重合,摄像机之间在方向上的间距为基线距离在这个模型中,场景中同一个特征点在两个摄象机图像平面上的成象位置是不同的我们将场景中同一点在两个不同图像中的投影点称为共轭对,其中的一个投影点是另一个投影点的对应(correspondence),求共轭对就是求解对应性问题两幅图像重叠时的共轭对点的位置之差(共轭对点之间的距离)称为视差(disparity),通过两个摄象机中心并且通过场景特征点的平面称为外极(epipolar)平面,外极平面与图像平面的交线称为外极线在图111 中,场景点在左、右图像平面中的投影点分为和不失一般性,假设坐标系原点与左透镜中心重合比较相似三角形和,可得到下式: (111)同理,从相似三角形和,可得到下式: (112)合并以上两式,可得: (113)其中是焦距,是基线距离。因此,各种场景点的深度恢复可以通过计算视差来实现注意,由于数字图像的离散特性,视差值是一个整数在实际中,可以使用一些特殊算法使视差计算精度达到子像素级因此,对于一组给定的摄象机参数,提高场景点深度计算精度的有效途径是增长基线距离,即增大场景点对应的视差然而这种大角度立体方法也带来了一些问题,主要的问题有:1 随着基线距离的增加,两个摄象机的共同的可视范围减小2 场景点对应的视差值增大,则搜索对应点的范围增大,出现多义性的机会就增大3 由于透视投影引起的变形导致两个摄象机获取的两幅图像中不完全相同,这就给确定共轭对带来了困难 在图111(b)中,图像中的每个特征点都位于第二幅图像中的同一行中在实际中,两条外极线不一定完全在一条直线上,即垂直视差不为零但为了简单起见,双目立体算法中的许多算法都假设垂直视差为零 在实际应用中经常遇到的情况是两个摄像机的光轴不平行,比如,在某些系统中,调节两个摄象机的位置和姿态,使得它们的光轴在空间中相交在某一点,如图112所示在这种情况下,视差与光轴交角有关对于任意一个光轴交角,在空间中总存在一个视差为零的表面比这一表面远的物体,其视差大于零;反之,比这一表面近的物体,其视差小于零因此,在一个空间区域中,其视差可被划分为三组:这三组视差可用于解决匹配不确定问题 (a) (b)图111双目立体视觉几何模型图112摄象机光轴交会空间一点摄象机之间的夹角定义了视差为零的一个空间表面摄像机光轴不平行的另一种系统是后面将要介绍的一种叫做会聚式(convergent)立体视觉系统(见图115)这种系统不要求光轴严格地相交于空间一点立体成象的最一般情况是一个运动摄像机连续获取场景图像,形成立体图像序列,或间隔一定距离的两个摄像机同时获取场景图像,形成立体图像对图113 外极线几何示意图图113所示的是处于任意位置和方位的两个摄象机,对应于某一场景点的两个图像点位于外极线上这两幅图像也可以是一个摄像机由一点运动到另一点获取这两幅图像即使两个摄象机处于一般的位置和方位时,对应场景点的两个图像点仍然位于图像平面和外极平面的交线(外极线)上由图不难看出,外极线没有对应图像的某一行 112 立体匹配 立体成象系统的一个不言而喻的假设是能够找到立体图像对中的共轭对,即求解对应问题然而,对于实际的立体图像对,求解对应问题极富有挑战性,可以说是立体视觉最困难的一步为了求解对应,人们已经建立了许多约束来减少对应点搜索范围,并最终确定正确的对应下面我们将讨论几个最基本的约束,然后讨论边缘特征和区域特征在立体匹配中的应用1121 基本约束(1 ) 外极线约束对于两幅从不同角度获取的同一场景的图像来说,传统的特征点搜索方法是首先在一幅图像上选择一个特征点, 然后在第二幅图像上搜索对应的特征点显然,这是一个二维搜索问题根据成象几何原理,一幅图像上的特征点一定位于另一幅图像上对应的外极线上因此,在外极线上而不是在二维图像平面上求解对应问题是一个一维搜索问题如果已知目标与摄像机之间的距离在某一区间内,则搜索范围可以限制在外极线上的一个很小区间内,如图114所示所以,利用外极线约束可以大大地缩小寻找对应点的搜索空间,这样即可以提高特征点搜索速度,也可以减少假匹配点的数量(范围越小,包含假匹配点的可能性越小)请注意,由于摄象机位置及其方向的测量误差和不确定性,匹配点可能不会准确地出现在图像平面中对应的外极线上;在这种情况下,有必要在外极线的一个小邻域内进行搜索图11.4 空间某一距离区间内的一条直线段对应外极线上的一个有限区间 (2)一致性约束立体视觉通常由两个或两个以上摄像机组成,各摄像机的特性一般是不同的这样,场景中对应点处的光强可能相差太大,直接进行相似性匹配,得到的匹配值变化太大因此,在进行匹配前,必须对图像进行规范化处理(Normalization)设参考摄象机和其它摄象机的图像函数分别为和,在图像窗内规范化图像函数为: (11.4) (11.5)其中是图像窗内光强的平均值,是光强分布参数: 相似估价函数为差值绝对值之和(sum of absolute difference,SAD): (11.6) (3)唯一性约束一般情况下,一幅图像(左或右)上的每一个特征点只能与另一幅图像上的唯一一个特征对应 (4)连续性约束物体表面一般都是光滑的,因此物体表面上各点在图像上的投影也是连续的,它们的视差也是连续的比如,物体上非常接近的两点,其视差也十分接近,因为其深度值不会相差很大在物体边界处,连续性约束不能成立,比如,在边界处两侧的两个点,其视差十分接近,但深度值相差很大1122边缘匹配本算法使用的边缘特征是通过Gaussian函数的一阶导数获得的在有噪声的情况下,使用Gaussian梯度来计算边缘更加稳定立体算法的步骤如下:1. 用四个不同宽度的Gaussian滤波器对立体图像对中的每一幅图像进行滤波,其中前一次滤波的宽度是下一次滤波器宽度的两倍这一计算可以反复通过对最小的滤波器进行卷积来有效地实现2. 在某一行上计算各边缘的位置3. 通过比较边缘的方向和强度粗略地进行边缘匹配显然,水平边缘是无法进行匹配的4. 通过在精细尺度上进行匹配,可以得到精细的视差估计1123 区域相关性尽管边缘特征是图像的基本特征,而且边缘检测算法也十分成熟但边缘特征往往对应着物体的边界,物体的边界深度值可以是(前景)物体封闭边缘的深度距离和背景点深度距离之间的任一值特别是曲面物体,其封闭边缘是物体的轮廓影象边缘,在两幅图像平面中观察到的轮廓影象边缘与真实的物体边缘不是对应的不幸的是,图像平面的强边缘只能沿着这样的封闭边缘才能检测到,除非物体有其它的高对比度的非封闭边缘或其它特征这样,恢复深度的基本问题之一是识别分布于整幅图像中的更多的特征点,并作为候选对应点还有许多用于寻找对应点潜在特征的方法,其中的一种方法是在立体图像对中识别兴趣点(interesting point),而后使用区域相关法来匹配两幅图像中相对应的点(1) 区域中感兴趣特征点的检测两幅图像中用于匹配的点应尽可能容易地被识别和匹配显而易见,一个均匀区域中的点是不适合作为候选匹配点,所以兴趣算子应在图像中寻找具有很大变化的区域一般认为图像中应有足够多的用于匹配的分立区域 在以某一点为中心的窗函数中,计算其在不同方向上的变化量是这些方向上点的差异性的最好测度方向变化量的计算公式如下: (11.7) 其中S表示窗函数中的所有像素典型窗函数尺寸从到个像素的范围因为简单的边缘点在边缘方向上无变化,所以,选择上述方向变量的最小值为中心像素点的兴趣值,可以消除边缘点否则,在第一幅图像中的边缘点可能与第二幅图像中沿着同一条边缘的所有像素相匹配,由此使得准确确定视差变得十分困难(特别是当边缘是沿着外极线时更是如此)于是,有如下公式: (118) 最后,为了避免将多个相邻点选为同一个特征对应的兴趣点,可以将特征点选在兴趣测度函数具有局部最大值的地方一个点被认为是一个的“好”的好兴趣点,则对应的局部最大值一定大于原先设定的阈值 一旦在两幅图像中确定特征后,则可以使用许多不同方法进行特征匹配一种简单的方法是计算一幅图像以某一特征点为中心的一个小窗函数内的像素与另一幅图像中各个潜在对应特征点为中心的同样的小窗函数的像素之间的相关值具有最大相关值的特征就是匹配特征很明显,只有满足外极线约束的点才能是匹配点考虑到垂直视差的存在,应将外极线邻近的特征点也包括在潜在的匹配特征集中考虑两幅图像和设待匹配的候选特征点对的视差为,则以特征点为中心的区域之间相似性测度可由相关系数定义为: (119)这里的和是被匹配的两个区域中的所有像素灰度平均值,和式符号是在以特征点为中心的小窗函数中的所有像素上进行的 在式(11.9)中,在每一个像素上使用阈值化处理后的具有正负符号的梯度幅值,而不是图像灰度值,可以改善相关性的计算精度这可以通过下列过程来实现:计算未平滑的两幅图像中的每个像素的梯度幅值,然后使用两个阈值,一个大于0,另一个小于0,将这些值映射到三个值这样图像就被转换为波浪起伏阵列,可以产生更灵敏的相关值如果使用上述方法,则无需在相关性计算公式中包括正则项, 可以简化为相对应的像素值的乘积之和 在大多数情况中,相互靠近的特征点其对应的场景点深度也是十分靠近的这种启发式方法来源于迭代式松弛方法,我们将在143节对这种方法进行介绍 我们在早些时候已经注意到,基于特征的立体匹配算法产生对应于图像特征点的场景稀疏深度图在稀疏深度图上进行表面内插或逼近运算,可以重建一个表面,这部分内容将在第13章讨论立体重建过程的主要难题之一是选择兴趣点一种典型的兴趣点选择方法是基于灰度值的局部最大变化量不幸的是,这些点经常出现在拐角处或不满足平滑约束条件的表面不连续处在一些机器视觉应用中,这个问题是通过使用结构光来解决的将模式图投影到表面上来产生兴趣点,并可使区域变得光滑(见下一节内容) 最后要说明的是,从图像像素集合中选择用于求解共轭对的像素子集意味着仅仅能恢复这些像素对应的特征点深度要想得到其它点的深度值,必须通过使用有关计算方法来估算,如内插值技术113 多基线立体成象一幅图像上的每一个特征点只能与另一幅图像上的唯一一个特征对应,通常将这一性质称为特征的唯一性约束在实际中,由于大多数特征点不是十分明显,特别是重复纹理的出现,常常会产生对应多义性(ambiguity),即一幅图像上的一个特征点对应另一幅图像的若干个对应点,其中的一个点是真正的对应点,而其它点是假对应点消除对应点多义性的一种有效方法是采用多基线立体成象Okutomi 1993,如图114所示图115 多基线立体视觉系统摄像机位置示意图 假定n个摄像机具有相同的焦距F, 其位置分别为,对应的n-1个基线用 表示,和表示在位置处同步获取的图像,称为一个立体图像对已知场景一点Z的深度值为,则根据式子(3),和形成的立体视差为: (1110)图像强度函数和在Z点附近可以表示为: (1111)其中服从正态分布。在一定大小的窗口W上,对立体视差变量为,求立体图像对函数差值平方和(sum of squared difference, SSD): (1112)设,则(11.10)改写为: (1113) (1114)上式中分别是真实的和候选的场景点深度值的倒数用式(1113)和(1114)替换式(1112)得: (1115)将称为匹配评估函数的期望值为: (1116)其中是窗中内象素点的个数。个摄像机形成个SSD函数,将所有的SSD函数相加(sum of SSD,SSSD)形成了总的评估函数: (1117)其期望值为 (1118)下面讨论将评估函数表示成深度值倒数函数是如何消除多义性的设强度函数在和处周围具有相同的模式,即 (1119)则根据式(1116),有 (1120)由上式可见,在和处都将得到评估函数的最小值,因此产生多义性但注意一个事实,假的匹配深度值的倒数随着基线变化而变化,而真的匹配深度值的倒数则与基线长度无关,这样累加多个基线评估函数,则会得到唯一的最小值比如有两个基线的长度分别为(),则有: (1121)可以证明: (1122)也就是说,在处具有极小值图116是一个验证SSSD的简单例子,其中的原函数为图116 不同评估函数的曲线, 多基线立体视觉可以有效地消除一般场景纹理和重复纹理的对应多义性,但仍然无法求解弱纹理和无纹理物体对应点图118是兵马俑模型的立体图像对,除了少部分特征外,其它部位都无法作为特征来求解对应点为了恢复兵马俑的稠密深度图像,可以采用专用光源向场景投影条纹模式Kang 1995,如图118所示,每一个条纹的强度变化服从正弦分布这样做的效果相当于无纹理的模型上有了条纹特征,由此实现对应的特征点共轭对的求解图117 用三个摄象机获取的兵马俑石膏模型多立体图像对图118 主动式条纹光源照射下的多立体图像对图119 基于基本约束恢复的秦俑头像的深度图像114 从X恢复形状的方法 除了上述讨论的立体图像匹配方法外,从灰度图像中提取形状信息的许多其它方法,统称为由X恢复形状方法,也得到了大力地发展不过许多方法只用来估计一点的局部表面方位而不是绝对深度如果物体上至少有一个点的实际深度是已知的,那么同一目标上其它点的深度值可以通过对局部表面方向求积分得到因此,这类方法称为间接深度计算方法这里我们将简要地介绍一些方法,更祥细的阐述参见在其它章节(1) 光度立体在光度立体方法中,使用不同方向上的三个光源来获取同一场景的三幅图像在三幅图像的获取过程中,要求场景中的摄象机和目标静止不动知道了场景中物体的表面反射特性,就可以计算由这三个光源照明的所有点的局部表面方位这种方法的详细描述见第9章光照立体方法的重要优点之一是三幅图像中的点是完全套准的,这是因为摄象机和场景是固定不变的因此,这种方法不存在对应性问题这种方法的最大缺点就是它是一种简接的方法,也可能由于照明无法得到精细控制而不能用于实际的成象系统(2) 由明暗恢复形状由明暗恢复形状的方法主要使用图像灰度(阴影变化来恢复物体形状的信息这一过程是通过计算图像中每个点对应的场景表面方位来实现的除了由辐射测量原理产生的约束之外,阴影恢复形状的方法还假设了表面是光滑的,以便于计算表面方位参数这种方法在第9 章中已经详细介绍过了很明显,阴影恢复形状方法是一种间接的深度计算方法进一步的说,光滑度约束在所有点都不能满足,表面反射特性也不总是知道的很精确,从而导致了不精确的形状重建(3) 由纹理恢复形状图像的纹理特性变化,如密度、尺寸、和方位,都是建立纹理恢复形状的算法的基础例如,被定义为纹理元素基元尺寸的最大变化方向和幅值的纹理梯度,决定了表面方位量化纹理元素的形状(如圆显现为椭圆的变化对确定表面的方向十分有用构成规则网格纹理结构的表面图像(很可能是由于结构光照射的结果)可以通过寻找投影点(透视画中平行线条的会聚点)唯一地确定方位由纹理恢复形状方法除了是一种间接的深度计算方法外,还存在精确定位和量化纹理基元及其特性的困难由纹理恢复形状方法在第7 章中已经进行了介绍(4) 由运动恢复形状使用一个运动摄象机获取静止场景的图像时,场景点的图像平面坐标从一幅图像到另一幅图像的位移取决于场景点到摄象机的距离这十分类似于前几节描述的立体成象方法与之相对应的方法是使用一个静止摄象机获取运动物体的图像序列,从而在图像序列中产生运动视差这样的视差取决于物体表面点的位置和速度恢复物体结构和运动参数的方法将在14章祥细介绍115 测距成象能够直接测量可视范围内每个点的距离,并将其记录为一个二维函数的系统称为测距成象系统,得到的图像称为距离图像或深度图图1111 所示的就是通过激光三角测距得到的一个深度图的例子最常用的测距成象方法有结构光测距和雷达结构光测距成象系统使用三角测量原理来计算深度,而成象雷达系统则是通过比较发射信号与接收信号的时延或相位等方法实现距离测量的。按发射信号的波长,雷达可分为声雷达、激光雷达、毫米波雷达等。若按工作体制可分为脉冲飞行时间法,相位差或差频,测距仪来计算深度图图1110 一个牙齿石膏模型的深度图(北京医科大学口腔医院吕培军博士提供)1151 结构光测距使用结构光照明的成象系统是指场景是由已知几何模式的照射光源照明的在一个简单的点投影系统中,投影光源仪和摄象机之间相距一个基线距离,如图1111所示物体坐标与被测量的图像坐标和投影角之间的关系如下: (1123)这样一个三角测量系统的距离分辨率可由投影角和图像点水平位置的测量精度确定 图1111 以摄象机为中心的三角测量几何Besl 1988为了计算所有点的深度,可使用二维网格照明模式照明场景,一次只照明一个点然后使用上述方程计算该点的深度,由此得到二维距离图像显然,由于这种方法获取数据的序列特性,其计算速度很慢,不适用于动态变化的场景中一个典型的结构光照明系统将光平面或者二维网格模式投影到场景中,与光源相隔一定距离的摄像机获取投影到场景中物体表面的光照模式所观测到的光照模式图像含有变形,该变形由光照模式和物体表面的形状和方向决定,如图1113所示注意,摄象机看到的网格包含了在方向和曲率上的不连续和变化对应于图像平面中的任意点的三维物体坐标可以通过计算摄象机视线和光照平面的交点来确定为了得到物体完整的描述,或者摇摆光源(如图所示),或者目标在一传送带上运动,以获取多幅图像物体上的不同表面可以通过对相似空间属性的光条的聚类来探测图1112 结构光测距原理示意图Jarvis 1983 在动态变化场合下,依次向场景投射光带来获取覆盖整个场景的完整深度图像是不太实际的如果为了获取完整的深度图像而将多条光带同时投影到场景中,则在匹配不同深度物体表面的光带时会产生潜在的混淆在这种情况中,所投影的每条光带必须具有唯一性的编码例如,用二进制编码方案,有可能只需投影个模式就可以获取完整的深度数据集合,其中是光带的总数这种方法示意在图1114中,其中 使用从到二进制码可以给七条光带中的每一条光带赋予唯一的编码因为等于3 ,所以仅能获取三幅图像每幅图像可以通过三位二进制编码中比特(bit)位置1,2或3来确定的在图像中某一特定光带,如果其对应的比特位为1,它就处于开的状态ON例如,光带2(010只有在第二幅图像中才是ON,但光带7(111在所有三幅图像中都是ON在所有三幅图像中的光带都被唯一地确定,因此在匹配光带段时,不会产生混淆在快速运动场景中,使用单色编码图像来取代多个二进值编码图像 结构光照明技术已经广泛地用于工业视觉,因为在这种应用中可以很容易地控制场景照明一个典型的应用是放在传送带上的运动物体经过一个光束平面,在光带图像中产生变形,然后计算光束平面上物体的轮廓以规则间隔重复上述过程即可恢复物体的形状结构光照明技术的主要缺点是无法获取摄象机或光源看不到的物体点的数据图1113 二进制编码结构光照示意图,这里的投影序列决定了每条光带的二进制编码1152 激光测距雷达在生物界,蝙蝠和海豚是通过接收自己发出的超声波来确定其周围物体的存在根据生物的这种感知距离的能力,人类发明了各种测距系统,称之为雷达,即向空间发射信号,然后接收反射信号并与发射信号进行比较,以确定目标的距离和方位激光测距(laser range finder)是在二十世纪60年代发展起来的一种新型测距雷达,现在已经进入实用化阶段激光雷达具有波束窄、波长短等独特优点,因而具有极高的角分辨能力、距离分辨能力和速度分辨能力。激光雷达可以获取目标的多种信息,如反射特性、距离信息、速度信息等在机器视觉领域,一般需要探测目标的细节及其精确的位置和方位,而声波甚至是电磁波都无法达到这一要求,只能使用波长很短的激光测距雷达激光测距的主要问题是技术实现难度较大下面介绍三种工作体制的测距原理:脉冲飞行时间测距、相位差测距和差频测距(1)脉冲飞行时间测距我们知道,声波和光波信号在空气介质中传播的速度是一定的,如果知道它们在空间中的传播时间,则可以计算波形在空气中的传播距离人们将这种直接通过测量波形(或脉冲)飞行时间来计算距离的方法称为飞行时间法(time of flight)激光脉冲测距雷达就属于这类测距系统激光脉冲测距雷达向空间发射激光脉冲信号,并接收由于碰到物体表面而反射回来的信号,然后测量发射和接收脉冲的时间差,就可以得到空间物体的距离图1115是一种典型的激光脉冲测距雷达原理框图,是1977年加洲理工大学喷推实验室研制的Lewis 1977激光源是砷化镓固体脉冲激光器,波长为激光源发出脉冲激光束,经光学校准系统到达光学扫描镜,对预定的空间进行扫描;光学扫描镜还对反射光同轴地接收,以保证测量的一致性反射光经光电探测器转换进入脉冲前沿甄别电路,产生一个独立于信号强度的到达时间脉冲发射参考脉冲与到达时间脉冲之间的时间间隔通过时间脉冲高度转换器转换成具有一定宽度(),其高度正比与时间间隔的脉冲信号为了提高测量精度,可以对多次测量的高度值取均值这种激光测距雷达在米的测量范围内,测距精度为厘米获取图像需要3分钟尽管上述的飞行时间测距原理十分简单,但要构造一个实用的系统比较困难,主要原因是测距系统的工作频率必须很高,才能得到较满意的距离图像,比如,为了得到测距精度为,则时间间隔的测量精度误差应小于(),要达到这样高的精度,只有采用原子物理仪器中的精密测量仪,如用于射线的测量的Anticompton分光计图 1114 脉冲飞行时间激光测距原理图 (2) 相位差测距相位差测距属于连续波雷达。深度信息可以通过检测调幅光波发射和接收的相位差来得到,这种原理的激光雷达的早期样机是美国Stanford研究所研制的Nitzan 1977,图1116是这种激光雷达原理框图使用15mw氦氖激光器发出的激光的幅度被调制,调制频率为9MHz,调制光经过平面镜分成两路,一路经过光学扫描装置向三维空间扫描,另一路进入相位差检测装置与经过物体反射后接收的光信号比较相位,如,调制频率为,相位差为,则物体到传感器的距离为: (11.24)式中为光速,为波长。由于相位差检测只能测量0的相位差,因此这种类型的激光测距雷达的测距范围为。当测量距离超过的整数倍时,测量出的相位差是不变的,此时,式(11.24)变为: (11.25)也就是说,这种激光测距雷达具有多义性,消除多义性的方法有两种,一是事先知道待测距离的大致范围,二是使用多台具有不同调制频率的激光测距雷达。图1115(3)差频测距差频测距也属于连续波雷达。当发射信号的频率在一个周期内线性地扫过区间,回波信号将在接收机与参考信号相混频产生一个差频,该差频与目标距离的关系为: (1126)1153 变焦测距 根据理想薄透镜定理,透镜中心(光学原点)到图象平面的距离 、透镜中心到场景点的距离和透镜焦距长度之间的关系为: (11.27)当,从图象平面到光学原点的距离等于焦距长度。当平行光线聚焦到图象平面上一点时,焦距长度是图象平面到光学原点的距离。在摄影测量学(Photogrammetry)中,光学原点称为投影中心,称为摄像机常数。当透镜聚焦近距离点时,因此使用作为的近似实际上是低估了摄像机常数。当场景远点越远时,聚焦平面到光学原点的距离越接近。如图11.17是理想透镜成象几何示意图.图1116薄透镜几何关系 对于图象平面到透镜中心的距离为的特定配置中,仅仅由方程11.27得到的在距离z处平面上的点是完全聚焦的。实际上,景深是由成象装置的空间分辨率决定的。低于成象分辨率的一定量散射可以容忍。在可接受散射水平下,存在一个图象平面距离的范围,以及一个对应的场景距离z范围,称为景深,其中的场景点在某一接受的程度上完全聚焦。当某一场景点不聚焦时,它会在图象平面上产生一个圆斑图象,而不是一个点图像。如果圆斑的直径低于成象装置的分辨率,那么图象散焦量不会特别的显著。假定圆斑的直径为b,透镜光圈直径为d,焦距长度为,图象平面的理想位置为。如果图象平面向透镜方向运动到达位置,即则图象的模糊程度由下式确定: (11.28)根据相似三角形性质,和的比值必须等于和的比值。我们可以从透镜方程(11.27)中求解和,分别对应于z和,并把这一表示式代入式(11.28)得到场景距离与模糊量关系的表示式 (11.29) 假定b是可接受散焦下模糊圆环的最大直径。解方程11.29求得, 可以得到视野范围内远距离平面的距离表示式 (11.30) 计算视野范围内近距离平面的距离表示式为 (11.31)其中,是图象平面距离配置(在正确配置范围之外),它对应于模糊的最大量。请读者在图11.17中指出图像平面位于的的位置。解透镜方程求z和并代入到方程求模糊直径: (11.32)解上述方程求平面距离 (11.33) 景深D是近距离和远距离平面之差: (11.34)对于一个特定的配置,焦距平面为,光圈直径为,焦距长为,最大可接受模糊直径为,这些方程提供了近距离和远距离平面位置。距离称为超焦距距离,在此处,远距离平(见(11.30)式)和场景深度(见(11.34)式)变成无穷大。关于变焦测距以及从变焦恢复形状文献有Pentland 1987, Nayer 1994, Krotkov 1987, Grossmann, 1987.1154 激光阵列成像目前,结构光测距系统技术和激光测距技术已经在物体建模和三维机器视觉导航方面获得相当成功的应用,并且已经有商品化的系统。基于变焦测距技术的视觉系统,由于其测距误差一般较大,因此一直没有很好的应用系统。对于立体视觉系统,由于系统的固有不适定问题,发展十分缓慢。作为应用系统,最重要的指标是可靠性高,适应环境能力强。视觉系统的最主要应用场合是恶劣的环境,如,战场环境,太空环境,海洋环境等,这些环境具有高冲击( 比如火箭发射过程),剧烈振动等特点。对于有运动部件或扫描部件的主动测距成像系统和主动视觉系统,在这样恶劣环境下工作的生存能力很低。为此,美国科学家研制出全固态(无扫描部件)的激光阵列成像雷达Sandia样机 ,并正在实施应用。激光阵列成像雷达能以很高的速率获取场景的稠密深度图,该系统使用大功率激光二极管阵列向场景发射激光,测量来自目标的相对于调幅载波相的反射光相移,以便计算到目标的距离。接收器里的图像增强器的增益被和发送器同样的频率调制。到达CCD的光与返回信号的相位和它的强度无关,而与目标的反射率有关。为了规范化反射率的变化,返回波速的强度被采样两次,一次是接收器调制增益作用,另一次是接收器调制增益不作用。这样,与每一个象素相联系的距离基本上同时在场景中测量。尽管这一系统具有能快速提供高精度的深度估计值的优点,该系统使用了许多元件,规模很大,功耗大,要想用于实际系统,必须做进一步的工作。116 主动视觉 大多数计算机视觉系统都依赖于由固定参数的系统来获取数据,包括所有的被动敏感系统(如视频摄象机)和主动敏感系统(如激光测距仪)与这些数据提取方法不同,我们认为主动视觉系统的数据获取特性和参数可以由场景解释系统动态地控制,是感知系统中至关重要的部分主动视觉不是一个新概念生理系统通常是以主动方式获取数据的主动视觉系统既可以用主动传感器也可以用被动传感器然而,在一个主动视觉系统中,传感器的状态参数如焦距、光圈、聚散度以及照度都可以控制,以获取有利于场景解释的数据主动视觉是一个基本智能数据获取过程,这一过程由场景测量和计算的参数与误差来控制精确定义这些场景和内容相关参数不仅需要全面理解成象和处理系统的特性,也需要全面理解相互依赖关系在文献Jain 1990中详细地介绍了距离图像传感、处理、解释以及应用BeslBesl 1988给出了获取距离图像的各种方法,并比较了它们之间的优缺点Jarvis 1983早期的一个综述报告不仅包括直接距离测量方法,还包括由二维图像特征信息计算距离的有关问题Boyer和KakBoyer 1987介绍了一种采用彩色编码从一幅图像中提取距离信息的方法Will 和Pennington的经典论文Will 1972讨论了用网格编码和富里叶域处理技术,以确定场景中不同二维表面的位置Bajcsy在文献Bajcsy 1988提出主动视觉系统倾向于主动感知系统和控制策略方法Krotkov 1987介绍了一个立体图像获取系统,该系统可以主动地控制焦距、缩放、光圈以及照明,以获取深度图Aloimonos等人Aloimonos 1988介绍了主动视觉系统可以完成各种视觉任务的的优点,如从图像恢复物体形状Ahuja和AbbotAhuja 1993将用于表面估计的视差、摄象机以及镜头聚焦集成到主动视觉系统中思考题11.1 使用一个测距摄象机获取一个边缘长为10厘米的正方体图像摄象机轴线穿过立方体的两个相对顶点,其中最近的顶点距摄象机中心的距离为10厘米摄象机所记录的灰度为,表示沿摄象机轴到图像平面的距离(不是欧几里德距离)请描绘通过摄象机获取的距离图像并计算由摄象机得到的立方体顶点灰度11.2 推导出图112所示的视差为的表面方程式11.3 试阐述多基线立体视觉消除多义性对应点的基本思想。11.4 比较结构光测距、激光雷达测距和变焦测距的优缺点。计算机练习题11.1 用两个摄象机步获取同一个场景的立体图像对,或用一个摄象机在不同的位置获取同一个场景的立体图像对。请编制一个程序来完成如下工作:(1) 对第一幅图像进行边缘检测,然后使用图像强度相关性算法在第二幅图像中找到对应的边缘。(2) 使用与第一幅图像相同的边缘检测器对第二幅图像进行边缘检测,比较边缘检测器输出的边缘图和通过相关性算法得到的对应边缘图。能否编制一个程序将图像边缘检测和相关性方法结合起来来找出对应的边缘图。(3) 请输出立体图像对的视差图。专心-专注-专业
展开阅读全文