论文摘要
西红柿在我国的种植范围几乎覆盖全国,种植面积居世界前列,其采摘是劳动密集型作业。人工采摘西红柿,成本高、时间长、且质量难以保证,很难适应规模化、工厂化种植发展的需要,因此西红柿自动化采摘是一个急需解决的问题。果实的识别、定位是机器人实现采摘动作的前提,而这些功能的实现又依赖于其视觉系统。利用视觉系统对自然场景下的果实进行识别、定位是实现机器人自动化采摘的重要一步,因此视觉系统的研究对于实现自动化采摘具有极大的意义。本文基于项目组研制开发的四自由度西红柿采摘机器人,研究开发了适宜于该机器人的视觉系统,其内容主要包括:对现有的西红柿栽培模式、生长特性及西红柿成熟过程中色彩变化与果实成熟度的关系进行了研究。在此基础上,搭建了西红柿采摘机器人视觉系统的硬件和软件平台,进行了该系统软件结构的设计。设计开发了适宜于四自由度西红柿采摘机器人视觉的图像实时采集系统。本文通过USB接口将摄像头与主机连接,进行图像实时采集,基于VFW技术利用VisualC++6.0编辑软件进行图像采集系统的软件开发。试验可得,该系统采集效果较好,并一定程度上提高了图像采集的灵活性,降低了成本。首次根据采摘要求对不同成熟期的西红柿果实进行识别。通过对图像中采摘西红柿与背景色彩分量的分布统计分析,获取了有效分割采摘物与背景的颜色指标。提出彩色图像的等尺度灰度化法,将彩色图像的分割转化为灰度图像的分割,经试验可知灰度化后的图像较好地保留了彩色图像中色彩指标差异的信息,从而简化了图像分割及处理的难度,提高了处理速度。采用阈值分割方法进行图像分割,确定了最佳的分割算法与色彩指标的组合,提出采用门限Otsu法对原有Otsu法进行了改进。本文最终确定当采摘西红柿为成熟果时,选择基于OUTI2颜色指标的门限Otsu法进行图像分割,其门限值为T=115;当采摘对象为绿熟果时,选择基于OUTH颜色指标的门限Otsu法进行图像分割,其门限值为T=50。通过对采摘西红柿形状特征的研究分析结合本课题的实际需要,确定了采摘对象所需的形状特征量,并完成了相关特征量的求取。采用行程标记算法对分割后的图像中的目标进行标记,搜索方向旋转法进行目标轮廓跟踪。对分割后的图像依次进行形态学处理、果实目标提取、果实目标区域填充,逐步去除图像中的干扰,获取较为完整的西红柿轮廓。在采摘西红柿质心确定中,提出将识别后图像中的果实单个提取,再依据果实外形轮廓是否完整,分别采用中心矩法及基于几何学原理的方法进行质心提取。针对课题任务要求及双目视觉系统的特点,结合实验室现有条件,实现了一种内外参数分离的平面模板标定方法。通过平面模板进行摄像头的标定,获取摄像头的内外参数,在此基础上对摄像头进行了畸变补偿的非线性优化,利用Levenberg-Marquardt迭代优化算法获取最终优化参数,并对摄像头进行了双目立体标定。通过对四自由度西红柿采摘机器人的采摘空间的分析,提出并建立了视觉系统识别定位的视野范围、双目视觉系统中左右摄像头基线取值范围与机器人采摘空间的相互关系。提出了一种基于西红柿质心特征并辅以极线约束、唯一性约束及视差梯度范围约束的匹配方法来实现果实目标的匹配。利用平行双目立体视觉模型进行采摘西红柿质心的三维重建,获取质心空间坐标,并通过摄像头坐标系与机器人坐标系相互转换关系的研究,确定采摘西红柿质心在机器人坐标系中的空间坐标。采用面向对象的程序设计方法,研制开发了适宜于四自由度西红柿采摘机器人的视觉系统。并在实验室的环境下对该视觉系统进行了测试,对识别、定位中误差产生的原因进行了相关分析。测试结果表明,成熟果的识别可以达到98%,绿熟果的识别可达89%,定位误差可控制在15mm以内,其识别及定位效果均能满足四自由度西红柿采摘机器人的工作要求。
论文目录
相关论文文献
标签:双目立体视觉系统论文; 图像分割论文; 识别论文; 摄像头标定论文; 定位论文;