导读:本文包含了室外场景论文开题报告文献综述及选题提纲参考文献,主要关键词:点云,目标检测,PointNet++,室外场景
室外场景论文文献综述
吴登禄,薛喜辉,张东文,付展宏[1](2019)在《基于PointNet++的室外场景叁维点云多目标检测方法》一文中研究指出针对室外场景叁维点云的稀疏性对目标检测带来的挑战问题,设计一个基于PointNet++的点云检测方法。该方法首先预处理点云,获取感兴趣区域点云;再聚类点云,对物体进行分割;接着通过PointNet++检测,获得目标的类别结果;最后通过叁维bounding box获得目标物体的长宽高及朝向。为验证该方法的有效性,用16线velodyne激光雷达采集室外真实场景的数据,并制作样本集进行网络训练。最终结果验证,该方法能获得较高的检测准确率,并满足实时性要求。(本文来源于《自动化与信息工程》期刊2019年04期)
宋佳昕[2](2019)在《移动机器人室外大尺度场景定位及语义建图算法研究》一文中研究指出机器人的同时定位与建图(Simultaneous Localization and Mapping,SLAM)是机器人导航和环境感知的重要基础。同时为了使机器人能够更好的理解周围的场景,对叁维环境的语义感知也至关重要。本课题主要研究了室外大尺度场景下移动机器人利用双目视觉进行定位,视觉联合差分GPS进行融合定位以及叁维场景的稠密语义重建等问题。准确可靠的位姿估计是机器人能够进行准确建图的先决条件。针对于定位问题,本文首先设计了一个双目视觉里程计。里程计主要由相邻帧的在线跟踪线程和后端优化线程组成。为了提高计算效率使得定位具有较高的实时性,在线跟踪部分采用基于半直接法的框架,通过利用LK光流对关键点进行追踪的方法,提高了数据关联部分的计算速度。在后端的优化部分,采用基于滑动窗口优化的方法,对固定数量的关键帧的位姿以及观测到的地图点进行优化。由于视觉里程计是一种相对定位的方法,在短时间内的定位结果较为可靠,但长时间运行下常常会出现较大的累计误差。在室外场景下,GPS也是移动机器人常常用来进行定位的传感器。相比于视觉定位的结果,GPS定位具有全局定位准确的优点。本文提出一种基于位姿图优化融合视觉里程计和高精度差分GPS定位的算法,实现了视觉和GPS的联合定位。通过融合GPS的定位信息解决了视觉里程计长时间运行下误差累计导致的轨迹漂移问题。目前大多数针对于室外场景下的SLAM系统常常侧重于在线的实时定位,构建出的地图往往是稀疏特征点地图或者半稠密的地图,对于叁维环境的完整建模还远远不够。为了使机器人更好得对环境进行完整的建模,本文后端的建图算法通过双目视差的稠密恢复对叁维场景进行了较为稠密的重建。在重建的过程中,为了节省存储空间和提高建图的质量,本文采用了基于TSDF模型的建图方法。另外,为了使机器人更好的感知周围的场景中的语义信息,本文将语义分割网络deeplabv3+融入到建图算法中完成了场景的语义建图。最后,为了验证上述算法的有效性,分别基于KITTI数据集和实际道路场景下采集的数据进行了算法实验。分别从视觉里程计的定位精度和实时性,融合GPS后对定位精度的改善以及地图的重建效果等方面进行了分析。(本文来源于《哈尔滨工业大学》期刊2019-06-01)
宋一锋,杨扬,王秀峰,刘宇,邓川[3](2019)在《车站站场室外场景3D联锁仿真软件设计》一文中研究指出车站站场室外场景3D联锁仿真软件实现了车站联锁控制过程的叁维实时动态复示。该软件的设计采用3D MAX软件对各信号设备建模,采用C#编程语言在Unity3D平台下制作转辙机带动道岔转换、轨道电路光带显示及信号机点灯等动画;通过实时接收计算机联锁仿真软件数据驱动车站站场室外3D设备动作,直观地展示排列进路、模拟走车等车站室外作业和几类故障情况的仿真效果,为车站联锁控制系统的教学或培训服务。(本文来源于《铁路计算机应用》期刊2019年05期)
汤杰[4](2019)在《试析5G室内、室外场景分离网络架构频效和能效的折中》一文中研究指出5G网络极大提升了通信容量以及频谱效率,实现了高质量的移动通信,为用户提供更为优质的服务。为了推动5G网络建设的有序开展,拓展频谱资源,控制网络能耗,节约开发成本,文章从频谱开发以及能耗控制两个维度出发,采取针对性的技术手段,形成完备的5G室内、室外场景分离网络架构频效与能效折中方案。(本文来源于《信息通信》期刊2019年05期)
史桢宇,胡滨,王艺[5](2019)在《在3GPP室外场景下基于粒子群优化算法的多用户定位方案》一文中研究指出高精度定位广泛应用于移动通信和蜂窝网络。因此,提出了一种高精度定位算法,该算法基于粒子群算法(Particle Swarm Optimization,PSO)融合时间差(Time Difference of Arrival,TDOA)测量和波达方向(Direction of Arrival,DOA)测量来进行定位。在3GPP Release 13版本所规定的网络部署和信道模型场景下,对该方案进行仿真评估。通过蒙特卡洛仿真结果显示,该算法相对传统LTE算法能将定位准确度提高7~8倍,达到1.3 m的定位精度。(本文来源于《通信电源技术》期刊2019年04期)
廖瑞杰,杨绍发,孟文霞,董春梅[6](2019)在《SegGraph:室外场景叁维点云闭环检测算法》一文中研究指出提出适用于配有叁维激光雷达的自主移动机器人在室外场景进行同时定位与地图创建(simul-taneous localization and mapping, SLAM)的一种闭环检测算法,命名为SegGraph.作为SLAM的关键模块,闭环检测的任务是判断机器人当前位置是否与已到过的某一位置邻近.SegGraph包含3步:1)对在不同时刻得到的2组点云分别移除大地平面后采用区域增长方法分割为若干个点云簇;2)以点云簇为顶点,以点云簇图心间距离为边权值,分别构建带权值的完全图;3)判定所得的2个完全图是否含有足够大的公共子图.SegGraph的主要创新点是在寻找公共子图时以边权值(即点云簇间距离)为主要匹配依据.这是因为点云数据中的噪声会导致在邻近地点获得的不同点云经分割后得出差别很大的点云簇集,不同点云中相应的点云簇也便无法匹配.然而相应点云簇间距离却受分割过程影响不大.主要贡献包括研发高效的判定2个点云簇图是否有足够大的公共子图的近似算法,实现完整的SegGraph算法,及以被广泛使用的公开数据集KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute)评估SegGraph的准确度及运行效率.实验结果显示SegGraph具有良好的准确度及运行效率.(本文来源于《计算机研究与发展》期刊2019年02期)
邱增帅[7](2018)在《面向室外环境的移动机器人自主场景理解》一文中研究指出室外环境的场景理解是移动机器人领域的基础性问题,它为机器人的决策层提供参考依据。移动机器人室外场景理解既要解决室外场景描述问题,也要解决室外场景中的多类别景物识别问题。室外场景的描述依赖于移动机器人利用自身配备的激光、视觉、惯性导航等设备所获取的多源感知数据的有效融合。在场景样本数据分布形式的影响下,室外场景中多类别景物识别的能力取决于机器人模式识别与机器学习算法的性能。针对移动机器人多源感知数据融合问题,本文研究中采用激光测距、视觉、惯性导航叁种传感器的数据级融合算法,将图像的颜色信息(RGB叁通道)、激光测距的深度信息(Depth)和强度信息(Intensity)进行融合,并利用生成的RGB-DI点云数据进行叁维场景描述。考虑机器人运行速度变化以及场景中动态景物等因素会造成RGB-DI点云分布的不均衡性,本文提出了基于点云平面拟合和基于点云投影变换这两种点云到图像的转换算法。这两种算法设计了不同的RGB-DI点云变换的目标函数,目的是寻找一个以最优视角的平面来表示RGB-DI点云,并通过蒙特卡洛优化算法求解可最优表示变换平面的法向量,从而使得点云在该平面上分布均衡,进而生成与RGB-DI点云对应的RGB-DI图像。针对室外场景中多类别景物识别问题,考虑到RGB-DI点云与RGB-DI图像是一一映射关系,因此将基于RGB-DI点云的多景物识别问题转化成了基于RGB-DI图像的多景物识别问题。本文基于深度学习理论提出了两种适用于RGB-DI图像的多类别景物识别模型,即FCN模型和基于CNN的全连接CRF模型。FCN模型通过使用反卷积层来完成特征图的上采样过程,并将中间的卷积层与最后的反卷积层相融合进而解决了模型训练时反向传播的残差消失问题。对于基于CNN的全连接CRF模型,CNN提取了具有强表示性的RGB-DI图像深层特征,而全连接CRF模型增加了相邻像素属性的约束项,从而使RGB-DI图像语义识别结果更具有位置相关性。最后,将RGB-DI图像的识别结果反映射于RGB-DI点云场景中从而实现了叁维场景理解。对于长时间工作在室外环境中的移动机器人,长期场景理解是一个挑战性的研究问题。由于季节交替、光照变化、天气差异、场景变换等因素会对机器人的景物识别模型产生显着影响,因此随着运行时间的不断推移,识别模型的累计误差会不断增大,这将会显着降低景物识别模型的泛化性。为了提升场景理解的鲁棒性,研究中设计的景物识别系统框架需要建立在不同季节、天气等因素条件下的多样化大样本场景数据基础上。目前可获得的机器人长航时数据库通常只包含视觉数据,因此本项研究工作也只是基于视觉场景样本来开展的。针对机器人视觉场景理解的实时性问题,本文提出了基于超像素CRF模型的图像快速语义分割方法。该方法以超像素为处理单元,大幅度降低了 CRF模型预测的时间。针对机器人在长期运行中景物识别模型的低泛化性问题,本文提出了栈式稀疏自编码特征学习模型,该模型从大样本图像数据中提取每张图像的高维特征,应用Membership Kmeans高维聚类算法完成大样本图像数据的多子集划分,然后在每一个子样本数据集中训练一个超像素CRF模型,最后依据SoftMax子集选择器来完成多个超像素CRF模型的切换,进而解决了移动机器人的长期自主性问题。为了验证基于RGB-DI点云语义分割算法的有效性,本研究采用了牛津大学和大连理工大学的数据集为基础进行实验分析。通过分别与基于FPFH和点云颜色矩特征描述的随机森林这两种点云语义分割算法的实验对比,所得结果表明本文所提出的基于CNN的全连接CRF模型可有效提升针对室外场景的点云语义分割准确率。此外为了验证移动机器人长期运行时基于图像的实时语义分割算法的有效性,以卡内基梅隆大学和大连理工大学的数据集为基础。这两个数据集是不同场景等多种因素影响下的大样本视觉数据。实验结果表明,栈式稀疏自编码模型可以提取图像数据中具有强代表性的高维特征,并依据 Calinski-Harabasz 和 Davies-Bouldin 聚类评价准则对 Membership Kmeans 高维聚类算法进行了大样本数据子集划分的统计评估,进而根据该评估结果获得了在两种聚类评价下的最优子样本集划分结果。根据每个子样本集的数据分布,可有针对性的训练出超像素CRF图像语义分割模型,从而提升该模型对多样化场景的识别鲁棒性。本文所提算法对数据库中图像的语义分割时间不超过180毫秒,可满足目前实验室所使用的移动机器人平台对场景理解实时性的需求。(本文来源于《大连理工大学》期刊2018-12-14)
任艳楠,刘琚,元辉,顾凌晨[8](2018)在《采用几何复杂度的室外场景图像分割和深度生成》一文中研究指出本文提出一种采用几何复杂度的室外场景图像几何分割和深度生成算法。该算法首先通过图像中主要线段的角度统计分布将室外场景图像的几何结构规划为四种类型;然后,利用meanshift分割算法将输入图像分割成若干小区域,依据该图像的场景几何结构将这些小的区域逐步融合成为叁个大的区域,每个区域具有一致的深度分布特点,由此实现输入图像的几何分割;最后,根据几何类型定义标准的深度图,结合输入图像的几何分割结果获得图像的深度图。实验结果表明可以通过简单的线段角度统计分布实现图像的几何分割,并进一步获得图像的深度图,与已有算法相比,提出的算法可以更好地保持深度图细节,更接近场景的真实的深度信息。(本文来源于《信号处理》期刊2018年05期)
佟国峰,杜宪策,李勇,陈槐嵘,张庆春[9](2018)在《基于切片采样和质心距直方图特征的室外大场景叁维点云分类》一文中研究指出叁维(3D)点云数据在智能驾驶、遥感测量和虚拟现实等领域的应用越来越广泛。针对室外大场景,提出了一种兼顾快速性与准确性的叁维点云分类算法,该算法首先对原始点云进行离群点去除,并在现有地面滤波算法的基础上,结合点云法向量差信息滤除地面点;然后再使用具有噪声的基于密度(DBSCAN)的聚类算法对非地面点云进行分割,同时针对点云的过分割问题采用了就近融合的策略;再提取出不同物体点云的全局特征,包括垂直方向切片采样直方图和质心距直方图,以及点云的二维投影图像方向梯度直方图(HOG)特征;最后,通过支持向量机(SVM)分类器分类,得到较为精确的叁维点云分类结果。实验结果表明:所提算法可以将复杂的室外大场景分类为较为准确的单个物体,并且具有较高的精确率以及召回率;相较于其他算法,所提算法的效率有了较大提高。(本文来源于《中国激光》期刊2018年10期)
顾宇峰[10](2018)在《基于叁维激光点云数据的室外场景理解》一文中研究指出叁维激光点云数据的场景理解是计算机视觉领域重要的研究内容,本文主要研究了基于室外叁维激光点云数据的分类问题,并提出了两种分类算法。本文提出了全景方位角(Panorama Bear Angle,PBA)图模型结构,首先将叁维激光点云投影到以视点为球心的球面模型上,建立叁维激光测距点与二维图像像素间的对应关系。然后利用激光测距点在叁维空间中的相对位置关系计算其所对应像素灰度值。PBA图克服了传统图模型结构依赖叁维激光点云结构化输入的局限性,并且解决了传统图模型结构灰度渐变和细节刻画能力弱等问题,为本文后续的特征提取和图像分割提供了保证。在第一种分类算法中,本文首先利用图像金字塔模型提取了PBA图在多个尺度上纹理特征。然后本文通过图像金字塔模型衍生出“点云金字塔”模型,借助点云金字塔模型提取了叁维激光点云在多个尺度上的局部特征。随后采用随机森林分类器对已提取的高维特征进行特征筛选,以实现对叁维激光点云数据的初分类。而后对PBA图进行了超像素分割,在每个超像素块内根据初分类的结果进行再分类,以矫正部分错分点,使分类精度得到进一步提升。在第二种分类方法中,本文借助卷积神经网络完成叁维激光点云特征的自动提取。首先在视点所在的水平面上选取多个视角方向,根据针孔相机模型将激光测距点投影到各个视角所对应平面上,按照特定的颜色映射算法生成每个视角所对应的二维图像,然后将这组图像作为全卷积神经网络模型的输入。完成图像的语义分割后,将结果反映射回叁维激光点云中,即可得到每个激光测距点的类别标签。这与直接处理叁维激光点云的神经网络相比,在效率和资源利用率上具有明显优势。本文选取苏黎世联邦理工学院(ETH Zurich)和国立巴黎高等矿业学校(MINES ParisTech)公开的叁维激光点云数据集对上述两种分类算法进行验证,并将验证结果与国外研究小组的成果进行了对比。结果显示,本文的两种分类策略在分类精度和分类效率方面具备较大优势。(本文来源于《大连理工大学》期刊2018-05-03)
室外场景论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
机器人的同时定位与建图(Simultaneous Localization and Mapping,SLAM)是机器人导航和环境感知的重要基础。同时为了使机器人能够更好的理解周围的场景,对叁维环境的语义感知也至关重要。本课题主要研究了室外大尺度场景下移动机器人利用双目视觉进行定位,视觉联合差分GPS进行融合定位以及叁维场景的稠密语义重建等问题。准确可靠的位姿估计是机器人能够进行准确建图的先决条件。针对于定位问题,本文首先设计了一个双目视觉里程计。里程计主要由相邻帧的在线跟踪线程和后端优化线程组成。为了提高计算效率使得定位具有较高的实时性,在线跟踪部分采用基于半直接法的框架,通过利用LK光流对关键点进行追踪的方法,提高了数据关联部分的计算速度。在后端的优化部分,采用基于滑动窗口优化的方法,对固定数量的关键帧的位姿以及观测到的地图点进行优化。由于视觉里程计是一种相对定位的方法,在短时间内的定位结果较为可靠,但长时间运行下常常会出现较大的累计误差。在室外场景下,GPS也是移动机器人常常用来进行定位的传感器。相比于视觉定位的结果,GPS定位具有全局定位准确的优点。本文提出一种基于位姿图优化融合视觉里程计和高精度差分GPS定位的算法,实现了视觉和GPS的联合定位。通过融合GPS的定位信息解决了视觉里程计长时间运行下误差累计导致的轨迹漂移问题。目前大多数针对于室外场景下的SLAM系统常常侧重于在线的实时定位,构建出的地图往往是稀疏特征点地图或者半稠密的地图,对于叁维环境的完整建模还远远不够。为了使机器人更好得对环境进行完整的建模,本文后端的建图算法通过双目视差的稠密恢复对叁维场景进行了较为稠密的重建。在重建的过程中,为了节省存储空间和提高建图的质量,本文采用了基于TSDF模型的建图方法。另外,为了使机器人更好的感知周围的场景中的语义信息,本文将语义分割网络deeplabv3+融入到建图算法中完成了场景的语义建图。最后,为了验证上述算法的有效性,分别基于KITTI数据集和实际道路场景下采集的数据进行了算法实验。分别从视觉里程计的定位精度和实时性,融合GPS后对定位精度的改善以及地图的重建效果等方面进行了分析。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
室外场景论文参考文献
[1].吴登禄,薛喜辉,张东文,付展宏.基于PointNet++的室外场景叁维点云多目标检测方法[J].自动化与信息工程.2019
[2].宋佳昕.移动机器人室外大尺度场景定位及语义建图算法研究[D].哈尔滨工业大学.2019
[3].宋一锋,杨扬,王秀峰,刘宇,邓川.车站站场室外场景3D联锁仿真软件设计[J].铁路计算机应用.2019
[4].汤杰.试析5G室内、室外场景分离网络架构频效和能效的折中[J].信息通信.2019
[5].史桢宇,胡滨,王艺.在3GPP室外场景下基于粒子群优化算法的多用户定位方案[J].通信电源技术.2019
[6].廖瑞杰,杨绍发,孟文霞,董春梅.SegGraph:室外场景叁维点云闭环检测算法[J].计算机研究与发展.2019
[7].邱增帅.面向室外环境的移动机器人自主场景理解[D].大连理工大学.2018
[8].任艳楠,刘琚,元辉,顾凌晨.采用几何复杂度的室外场景图像分割和深度生成[J].信号处理.2018
[9].佟国峰,杜宪策,李勇,陈槐嵘,张庆春.基于切片采样和质心距直方图特征的室外大场景叁维点云分类[J].中国激光.2018
[10].顾宇峰.基于叁维激光点云数据的室外场景理解[D].大连理工大学.2018
标签:点云; 目标检测; PointNet++; 室外场景;