论文摘要
视觉检测是机器视觉应用于检测领域形成的新技术。美国国家标准局在调查基础上曾作过预测:今后工业检测任务的80%乃至90%-将由视觉检测完成,因而具有极为重要的研究价值。根据现代先进制造技术对视觉检测的需要,论文首先以视图几何理论为基础建立单目与多目视觉摄像机成像模型,然后以图像分割提取检测对象,最后着重对视觉检测中的畸变校正以及立体匹配等关键问题进行深入研究,提出了一些新的检测方法,并验证了这些方法的有效性。分述如下:在利用视图几何理论解决单目与多目视觉检测摄像机成像问题的基础上,论文结合梳刀参数检测,纸张计数检测以及深度检测中立体匹配的不确定性问题,分析了图像分割对视觉检测两方面的意义:在提取检测对象方面,利用OTSU算法实现梳刀图像基于全局阈值的分割,提出基于峰谷形态特征的纸张纹路分割算法,比通常的阈值分割算法能更好地自适应反映图像的局部性质;在以分割区域作为图像中层符号描述方面,论文利用Meanshift算法进行彩色图像分割,并对利用分割区域同质性克服立体匹配的不确定性的进行了分析。实际的成像系统是一个非线性系统,因而图像畸变校正是保证视觉检测精度所不可缺少的处理过程。论文在通过标定获取摄像机成像系统非线性畸变系数的基础上,提出两种不同的方法来解决单目视觉图像的畸变校正问题:一种方法是将线性畸变与非线性畸变分离,分别利用相机方位(或工件方位)控制装置和摄像机标定技术进行消除,该方法需要四个自由度,机械结构复杂但对其精度要求不高;另一种方法是通过图像差分建立畸变场微分方程,对线性畸变与非线性畸变进行统一处理,论文提出了畸变场微分方程理想平移量参数与局部位移量参数确定方法,并给出了理论推导结果,该方法仅需要两个平移自由度,机械结构得到极大简化但对其精度要求很高。深度信息提取是三维视觉检测最重要的研究内容。立体匹配是实现深度信息提取的基础,分为基于WTA准则的局部最优立体匹配和基于能量函数最小的全局最优立体匹配。对局部最优立体匹配来说,论文对Yoon自适应加权立体匹配算法进行了改进:首先根据基于分割的视差假设分析了颜色相似性和空间邻近性对权值的不同影响,提出了新的空间临近性权值模型;然后将Birchfield相异性度量函数从2-邻域扩展到8-邻域,解决了原算法所采用的AD相异性度量函数对行列采样敏感的问题,匹配代价计算更为准确。实验表明,本文方法有效改善了原算法的匹配性能,可获得更为精密的视差图。对全局最优立体匹配算法来说,论文研究了倾斜平面(曲面)匹配的特殊性,在图像分割基础上引入视差变化的微分几何描述,在此基础上对能量函数以及置信传播立体匹配消息传输过程进行了重新构造,能更好反映视觉场景的深度结构,较好满足了一般平面匹配(甚至曲面匹配)的需要。
论文目录
相关论文文献
标签:视觉检测论文; 视觉计算框架论文; 图像分割论文; 数学形态学论文; 摄像机标定论文; 畸变校正论文; 立体匹配论文; 置信传播论文; 微分几何论文;