彩色地图图像中道路信息的识别与提取

彩色地图图像中道路信息的识别与提取

一、彩色地图图像中道路信息的识别和提取(论文文献综述)

徐鑫[1](2021)在《农牧区道路病害识别与定位分析》文中指出随着我国公路交通事业的发展,公路通车里程和通车数量已位居世界前列,在不断完善路网建设的同时,还需对已有公路进行道路养护和破损修复工作。农牧区道路多为等级较低的水泥混凝土路面,路况较差,因此如何快速准确地采集识别路面病害图像,将路面病害信息汇总并直观地呈现给道路养护人员是一个急需解决的问题。传统的检测设备和检测手段已无法满足逐年增加的养护里程数,本文通过研究农牧区道路的路面病害识别和定位方法,开发了一个针对水泥混凝土路面病害的识别与定位系统。首先对水泥混凝土路面进行归纳分类,包括板块破坏、接缝破坏和修补类三个大类,针对重点研究的裂缝、坑洞和露骨这三种基础病害,结合规范,提出合理的水泥混凝土路面病害等级评价指标、路面养护标准和路面养护措施。接着对路面病害图像进行预处理,通过对图像进行灰度化、直方图增强,抑制病害图像非病害区域的信息,突出呈现病害内容;对图像进行二值化处理,使整个图像呈现黑白效果,大为降低图像的无关数据,加快图像的处理速度;对比图像去噪方式,确定了在路面病害分析中使用中值滤波去噪的手段,去减少影响图像分析的干扰因素。然后通过图像锐化和分析四种边缘检测中常用算子的计算结果,重点探讨了基于边界和基于阈值这两种图像分割形式。对图像病害区域进行特征提取,分析图像病害的特征值,按照不同特征值对路面病害进行分类,并确定病害路面的破损程度,最后根据所获得的路面病害信息进行汇总。再导出GPS设备获取的行驶路段和路面病害GIS数据,通过坐标转换得到应用于电子地图的坐标信息,通过Ajax+JQuery+JSON的方式实现路面病害信息在电子地图的导入和呈现,基于百度地图API制作带有水泥混凝土路面病害信息和养护建议的电子地图,使用CAD软件对道路工程桩号图进行绘制,对照电子地图和工程桩号图确认路面病害的空间信息。最后基于Matlab平台对水泥混凝土路面的病害识别和病害定位呈现做出程序代码的编写,集合图像处理分析和电子地图等功能,生成水泥混凝土路面病害识别与地图呈现系统,更好地服务于农牧区道路的养护工作。

衣鹏军[2](2020)在《基于单帧图像与稀疏点云融合的道路交通标线提取算法研究》文中提出近年来以人工智能为代表的新一代科学技术迅速发展,众多基于位置的新型服务对传统导航电子地图提出新的需求。GNSS(Global Navigation Satellite System,全球导航卫星系统)在地基等增强系统的支持下,民用消费级实时定位精度已经能达到亚米至分米级,需要与之精度匹配的导航地图共同组成高精度位置服务。尤其在交通领域,车载导航地图需要以更精细的尺度反映时空地理环境,支撑车道级交通违法事件监管与用户驾驶行为分析等。自动驾驶作为我国新一代人工智能发展规划的重要环节,也亟需高精地图弥补汽车自主感知的盲区缺陷,实现精准可靠的环境感知与定位,同时高精地图是自动驾驶时代的重要基础设施,在实时定位和路径规划上发挥关键作用,也是自动驾驶车辆获得即时动态信息的重要来源和决策基础。作为国际公认的未来出行关键一环,高精地图能够提供大量准确且语义丰富的数据来帮助自动驾驶车辆以更精细的尺度了解周边环境状况,辅助决策控制,满足智能时代多种高层次的应用需求,且其已被公认是实现L3级别及以上的自动驾驶必不可少的条件。在我国,道路交通标线中的车道线宽度一般在10-20cm之间,甚至在一些农村公路或专属专用道路的情况下,车道线宽度仅为8cm,为避免车辆驾驶过程中的压线问题,不仅对车辆自身的“感知系统”提出很高的要求,也对地图数据有着很高的精度要求。而道路交通标线作为起着管制和引导交通作用的标志,以及高精地图中道路几何、车道几何以及附属物(停止线、导流区、人行横道、箭头、文字等)要素信息及属性的来源,在高精地图中扮演着重要的角色,对其精度要求更是精益求精。因此目前道路交通标线的提取均是通过高线程的激光雷达采集密集的点云数据来完成的,但由于高线程激光雷达价格昂贵且点云数据量庞大等原因,造成高精地图生产效率低且更新复杂困难。针对上述问题,本文提出了一种基于单帧图像与稀疏点云相融合的道路交通标线提取算法。该算法首先从图像和点云中分别提取道路交通标线的边缘点及内部点坐标信息,利用相机和激光雷达的标定参数对图像和点云进行配准。然后通过边缘点与内部点互相验证剔除误检数据,剔除误检数据后,对道路交通标线边缘数据进行聚类分割,分别对分割后的道路交通标线边缘数据进行几何校正获得最终的平面坐标,边缘点高程信息则通过插值拟合确定。最后本文还提出了一种针对高精地图中道路交通标线几何表达的分类方法,并根据该分类方法对提取的道路交通标线进行分类并完成其在高精地图中几何表达。本文利用KITTI数据集中的单帧点云模拟稀疏点云数据,分别通过基于图像和点云的方法对本文算法提取的道路交通标线坐标进行验证。经验证,该算法可以准确、高效地提取道路交通标线边缘,为道路交通标线的自动化提取提供一种新型可靠的方案。

张书瑜[3](2020)在《基于深度学习和多尺度多特征融合的高分辨率遥感地表覆盖分类研究》文中研究说明遥感图像地表覆盖分类是遥感图像领域的一个重要研究方向,其科学意义在于如何进一步提高遥感图像地表覆盖分类的精度,应用意义在于土地利用规划、城市管理和环境监测等方面。随着高空间分辨率卫星传感器的发展,高分辨率遥感图像越来越广泛,其清晰的地物细节和复杂的空间结构特征进一步增加了地表覆盖分类的难度。因此,发展新的地表覆盖分类方法,提升特征提取和地物识别的能力,具有重要的实际意义。针对以深度学习为核心的现有遥感图像分类方法中存在的效应分析不够全面、融合深度不够深入和贡献度分析缺乏等问题,本文结合超像素分割和深度学习模型,设计较为全面的空间尺度组合方案,提出深度网络融合的多尺度分类方法,以及注意力机制下的多尺度多特征分类方法,综合分析多尺度多特征的融合效应和贡献度差异,提高地表覆盖分类精度,形成基于深度学习和多尺度多特征融合的高分辨率遥感地表覆盖分类方法体系。以浙江省不同地区的高分二号遥感图像地表覆盖分类为例,进行了核心方法的测试、应用与验证。本文的研究内容概况如下:(1)围绕超像素分割与深度学习模型如何有效应用于遥感图像分类的基础性问题,提出了超像素单尺度地表覆盖分类方法。研究了基于假彩色合成和图像增强的超像素分割方法,分别基于原始图像和变换图像设计了超像素单尺度卷积网络,探究其尺度效应的变化规律,通过实验分析进行了充分论证。(2)针对如何综合探究多尺度效应和实现深度的多尺度特征融合分类的关键性问题,提出了深度网络融合的多尺度地表覆盖分类方法。综合研究了不同多尺度组合方案的分类互补效应,设计了基于一维卷积网络和循环网络的多尺度特征深度融合分类网络,在实验分析中取得了优于特征串联合并方式的多尺度分类精度。(3)针对如何实现注意力差异化的多类型特征融合分类的关键性问题,提出了注意力机制下的多尺度多特征地表覆盖分类方法。研究不同多特征组合方案的分类互补效应,设计基于注意力机制和一维卷积网络/循环网络的多尺度多特征深度融合分类网络,在实验分析中取得了优于其他对比方法的分类精度和分类边界。(4)围绕基于多尺度多特征融合如何提高遥感图像迁移学习分类精度的关键性问题,提出了多尺度多特征的迁移学习地表覆盖分类方法。研究不同的多尺度多特征组合方案在迁移学习中的分类效应,设计基于模型参数的多尺度多特征深度迁移分类网络,在实验分析中多尺度多特征融合的迁移学习取得了较优的效果。本文研究有望解决多尺度多特征信息在遥感图像分类中的深度融合问题,进而提升地表覆盖分类的准确性和一致性,促进遥感图像分类的研究与发展,推动高分遥感在地理国情等行业领域的深入应用。

邓琉元[4](2020)在《基于深度学习的道路场景语义分割方法研究》文中研究说明语义分割是智能车道路场景语义理解的核心技术之一,也是计算机视觉乃至人工智能领域的重要研究课题,其目标是对场景进行全面、精细化的语义识别。早期的语义分割方法往往基于人工设计的特征和浅层机器学习模型,难以适应复杂的环境。近年来,深度学习在众多人工智能领域的应用中下取得了重大突破。基于深度学习的语义分割也成为重要的研究方向之一。本文围绕基于深度学习的语义分割中的两个难点问题:异质异构数据的融合以及高度畸变图像的建模和学习而展开。主要的研究成果如下:(1)RGB图像和深度图像在特征提取过程中存在着相互依赖的关系,如何创建有效的双向融合机制来对其进行建模是目前的挑战之一。针对这一问题,提出基于交互式融合的RGB-D语义分割方法。首先,提出自底向上的交互式融合网络结构。该结构通过引入一个交互流来连接彩色数据流和深度数据流。交互流不仅从彩色数据流和深度数据流聚合特征,还为模态特异的数据流计算互补特征。然后,采用残差融合模块来实例化这个网络结构,在此基础上创建RGB-D语义分割模型RFBNet。最后,在室内数据集Scan Net和室外数据集Cityscapes上进行验证,结果表明RFBNet性能达到了当前先进水平。(2)针对异构图像和点云数据融合的问题,提出基于超点池化的三维场景语义分割方法。为充分利用图像的视觉信息和点云的几何信息,分别用二维语义分割网络从图像中提取二维视觉特征,用三维语义分割网络从点云中提取三维几何特征。为关联异构的图像视觉特征和点云几何特征,提出基于超点池化的联合学习方法:用超点作为中间表示来合并视觉特征和几何特征,再进行联合的特征提取。该方法使用超点来连接异构的特征,避免了体素化方法常出现的内存消耗和量化误差大的问题,并且能够处理大规模的点云场景。实验验证了所提方法可有效地利用视觉和几何信息的互补优势,相比前融合和后融合方法有显着的性能提升。(3)针对环视图像畸变大、建模难的问题,提出基于受限可变形卷积的语义分割网络:通过学习卷积核外围采样点的位置偏移来提高网络对几何形变的建模能力。针对环视图像训练集不足,导致的网络学习上的问题,提出基于多任务学习的训练方法。该方法将类别空间不同的小规模的真实环视图像数据集和大规模的普通图像数据集上的训练建模为多任务学习的过程,以提高模型的泛化性能。为减小两种数据集中图像畸变上的差异,提出变焦增强的方法将普通图像变换为类似的环视图像。为减小两种数据集的域间偏差对训练造成的影响,提出基于自适应批标准化的多任务学习方法。为平衡不同任务间的损失权重,提出混合的损失权重方法,进一步提升模型的泛化性能。实验验证了所提方法能有效的处理高度畸变的环视图像,最终实现了道路场景360度的语义分割。(4)在环视图像语义分割的基础上,提出基于语义分割的车道级定位方法。首先,提出基于像素级语义分割的道路特征(包括道路边界和路面标志)检测方法。该方法能够区分真实的和非真实的道路边界,将动态的目标排除在定位过程中,并且能够同时提取线型和非线型的的路面标志,帮助提升横向和纵向定位的精度。考虑到这两种道路特征的置信度差异比较大,提出粗定位方法和精细定位方法来解决基于环视相机的高精度定位问题。粗定位方法将道路边界和地图匹配得到一个大概的车辆位置,为精细定位提供初始化信息;而精细定位方法将路面标志与地图匹配,得到最终的车辆位置。实验验证了本文方法能够鲁棒的检测不同类型的道路边界和路面标志,并且在城市环境中取得了厘米级的定位精度。

王安涛[5](2020)在《基于3D激光雷达和视觉融合的巡检机器人SLAM研究》文中认为随着智能电网的发展,变电站的智能化程度不断提高,采用巡检机器人对变电站设备巡检成为当前变电站巡检的主流趋势。巡检机器人SLAM技术是巡检机器人在变电站中自主导航的关键所在。当前变电站巡检机器人主要采用激光雷达作为传感器进行定位和建图,但激光SLAM在环境结构特征相似、缺失的场景中存在定位失误的问题,且激光SLAM构建的环境地图为巡检机器人导航提供的道路信息较为单一,不利于道路场景的判断。本文将3D激光雷达信息和视觉信息融合,给出了一种适用于变电站巡检机器人的SLAM算法,解决上述激光SLAM定位失误问题,提高算法定位精度,并构建了变电站彩色激光点云地图,为巡检机器人导航提供更多道路环境信息。本文主要研究工作概括如下:1.对当前两种主流SLAM方案:激光SLAM和视觉SLAM的传感器模型、算法基本框架和工作原理进行分析,并结合定位与建图实验结果对比分析了激光SLAM和单目视觉SLAM在实际应用中的优缺点。2.针对巡检机器人导航需求,给出了一种3D激光和视觉融合的巡检机器人SLAM算法。算法将图像特征点和3D激光点位置信息结合,计算特征点在空间中真实位置,恢复单目视觉定位的尺度信息;采用激光位姿和视觉位姿配合插值,纠正由于激光雷达运动造成的点云畸变,提高了算法的定位精度;针对激光SLAM在结构特征相似、缺失等区域存在定位失误的问题,设计了位姿自适应选取方法,将视觉位姿融入算法后端,当机器人经过上述区域时自动采用视觉定位取代激光帧间定位,提高算法的鲁棒性;最后结合巡检机器人导航对场景地图的需求,融合激光点位置信息和图像像素信息,构建了变电站彩色激光点云地图。3.搭建算法测试平台,测试算法在不同场景下的性能。首先对激光雷达和相机联合标定方法进行改进,降低了标定参数的误差。在室内实际场景、室外标准数据集场景对算法性能进行了评估,实验结果表明,本文设计的算法在不同场景下定位精度和建图准确性都优于当前巡检机器人采用的激光SLAM算法。最后在变电站实际场景下对算法构建的地图进行对比分析,验证了彩色激光点云地图在变电站环境的适用性。

郑思捷[6](2020)在《基于视频GIS的城市道路交通视频空间化方法与应用研究》文中研究说明城市交通是现代城市发展的重要组成部分,是一个非常复杂的动态系统,其运行效率对于城市经济社会发展发挥着重要作用。然而在我国经济飞速发展的情况下,私家车保有量逐年增加,交通拥堵也越来越频繁的发生。目前大多数地图类APP可以展示路况信息,但其道路拥堵程度是根据采集用户GPS数据及购买的浮动车数据,根据相关模型进行扩样并估计,得到了道路运行的路况信息。这类信息可以用来实时展示甚至预测道路拥堵情况并告知用户,但并不能准确的获得道路的实际通行量,且存在由于采集数据不完全导致的路况信息错误的情况。而道路监控视频可以实时的、真实的展示道路运行情况,反映道路服务水平。本文将运用视频GIS技术,更好的利用监控视频所具有的时空表达能力,挖掘其中所蕴含的道路运行信息,优化道路交通拥堵情况的判定结果,提供更加真实、准确、可靠的路况信息。基于以上研究目标,本文采取以视频GIS技术结合视频图像识别技术,着眼于道路运行信息提取及交通拥堵分级,着重研究视频空间化技术以及车辆识别技术,并将该方法运用于道路交通信息提取方向,构建城市道路交通信息平台。主要研究内容和工作包括以下几个方面:(1)研究并实现了一种通用的视频空间化方法。通过摄像机的经纬度、高度等外参数和标定获取的相机内参,在本文提出的视域四棱锥模型中计算得到视频上任一像素点所对应的实际的空间坐标,并根据坐标对摄像机所拍摄的视频进行视频投影,为获取的视频赋予空间参考,作为数据源为GIS系统提供实时、真实的数据;(2)设计并实现了一种用于车辆识别的分类器,并在其基础上实现了目标跟踪算法。对经过预处理的样本图片进行HOG特征提取,并将其送入SVM分类器进行学习,得到本研究所需的分类器,用于视频中的车辆识别。结合目标跟踪算法,可以有效的统计视频中车辆的数量和轨迹;(3)总结道路拥堵评价指标用于对道路拥堵水平进行分级。在确定指标之后,构建拥堵分级模型,并与高德地图、百度地图等地图APP中的路况功能进行对比验证;(4)整合各功能模块,构建城市道路交通信息平台。开发桌面端软件,在其中实现除平移、缩放、测距等基础GIS功能外,实现了视频投影、车辆识别、拥堵分级与展示等功能。本研究有效的解决了视频数据与空间位置的关系,并运用于城市交通领域,经测试,效果良好。

孙朋朋[7](2019)在《城市环境下智能车行车环境精确感知关键技术研究》文中进行了进一步梳理近年来,随着信息融合与人工智能技术的飞速发展,智能车的智能化水平也在不断提升,智能车的应用正逐渐从封闭园区、高速公路等相对简单的交通环境向更加复杂的城市环境渗透。由于城市路况复杂、人车混行、存在大量GPS盲区,智能车周围的动态目标多,且容易形成遮挡,这些因素给智能车的高精度环境感知带来了极大的挑战。为了解决以上问题,本文基于三维激光雷达、RGB摄像机等多源传感器采集的点云与图像数据,分别针对城市环境下智能车行驶地面点云分割、道路边界检测、目标识别等关键问题展开深入研究,具体研究内容如下:1.面向城市环境下的智能车行车环境感知系统框架设计。通过深入分析城市环境下智能车自主安全导航的需求,以长安大学“信达号”智能车为研究平台,完成了基于多传感器信息融合的行车环境感知系统的研制。该系统以车载激光雷达、毫米波雷达和摄像机为主要感知传感器,同时利用V2X车路协同感知终端赋予智能车超视距感知和协同交互的能力,实现了智能车对远、中、近行车环境的全方位感知。2.基于三维激光雷达实时的地面点云分割算法研究。针对城市场景中存在的路面高程起伏不平的特点,提出了两种鲁棒的三维激光雷达地面点云分割方法。首先针对高程起伏较小的路面,在深入分析其三维激光雷达点云分布特性的基础上,构建了一种基于栅格自适应的极坐标栅格地图,并将激光点云数据映射到栅格中,然后根据栅格中激光雷达点云的高度分布特征,将极坐标栅格分类为地面栅格、障碍物栅格和边界栅格三种情况,将地面栅格中的点标记为地面点云,利用地面高程变化的局部连续性进一步分割出边界栅格中的地面点云。实验结果表明该方法平均每帧处理时间仅为17ms,可实现平坦路面的实时分割,且分割精度超过95%。其次,针对高程起伏较大的路面,在深入分析地面部分和非地面部分相邻扫描线、同方位角激光点之间的径向距离变化特征的基础上,提出了一种基于相邻扫描线径向距离分析的地面点云分割方法。首先对无序点进行序列化,然后根据三维激光雷达扫描参数和车辆姿态计算出相邻扫描线、同方位角上两点之间的期望距离,利用实际距离和期望距离之间的变化关系分割地面点。基于重庆市典型的起伏路面对提出的方法进行实车实验,结果表明该方法在满足分割精度的同时每帧处理时间约为34ms,满足了智能车对算法实时性、高精度的要求。3.基于三维激光雷达的城市道路边界检测方法研究。针对城市环境下道路边界变化多样且在三维激光雷达点云中边界易受其他障碍物的遮挡而出现阻塞的问题,提出了一种实时鲁棒的道路边界检测方法。首先利用本文提出的地面点云分割方法实现激光点云中地面部分与非地面部分的快速分离,在降低待处理数据量的同时也分部分抑制了道路障碍物对道路边界鲁棒检测的干扰。然后,利用同一扫描线相邻点之间的最大最小高度差、夹角以及相邻扫描线同方位角上的两点之间梯度特征从地面点云中提取可能的道路边界特征点,并根据道路的线形变化趋势搜索前方候选道路边界点的位置和补全由于遮挡而阻塞的候选边界点。最后,通过三次B样条模型将候选边界点集拟合出道路边界线。实验结果表明:该方法每帧处理时间为36.5ms,平均准确率达93%,即使在道路边界被部分阻塞的情况下,依然能够实时、鲁棒地检测出各种典型道路边界。4.基于三维激光雷达点云与RGB图像融合的目标检测方法研究。三维激光雷达点云可以直接用于提取目标的位置和三维几何结构信息,而图像数据非常适合用于目标的识别。论文充分利用了二者的互补性,提出了一种融合三维激光雷达点云与图像信息的目标检测方法。首先利用三维激光雷达点云生成准确的目标三维候选包围盒,然后将这些生成的目标候选包围盒映射到图像空间中生成二维的感兴趣区域(ROI),并将其输入到卷积神经网络(CNN)中,进行自动识别。为了提高小目标的识别率,该方法结合了CNN中最后三个卷积层的特征来提取ROI的多尺度特征。本文利用KITTI数据集对提出的算法进行评估,该方法从每帧的三维激光雷达点云中平均生成近百个目标候选区域,召回率高于95%,其性能远高于使用类似滑动窗口的候选区域选择方法(通常会产生上千个候选区),大大减少了目标候选区域的提取时间,保障了算法的实时性。该方法每帧平均处理时间为66.79ms,可满足智能车对算法实时性的要求。该方法在获得目标深度信息的同时,对中等难度的车辆和行人识别准确率分别为89.04%和78.18%。本文研究的全部算法均在长安大学自主研发的“信达号”智能车上得到了应用,利用“信达号”车载三维激光雷达和RGB相机采集城市场景下的大量数据对本文提出的三种环境感知方法进行了系统化测试,定性和定量的实验结果表明本文提出的方法实时、准确、可靠,可以增强智能车的环境感知能力。同时基于本文环境感知方法研制的智能车在“世界智能驾驶挑战赛”、“i-Vista自动驾驶汽车挑战赛”、“中国智能车未来挑战赛”表现突出,获得多个重要奖项。

于雪梅[8](2019)在《汽车停车场计费控制与信息分享系统研究》文中指出随着汽车行业的快速发展,停车难问题已经日益凸显。为了提高停车场车位的合理利用效率,缓解停车困难的压力,本课题利用图像处理技术和路径规划原理,设计了一个停车场计费控制与信息分享系统。该系统分为三个部分,主要工作内容如下:(1)车牌识别与信息储存系统设计。该系统包括车牌图像定位、车牌识别和车牌信息储存三个部分。将摄像头采集到的车牌照片进行图像预处理、边缘检测和BP神经网络等一系列处理,得到车牌的准确信息。利用Access数据库,建立车牌信息表,保存车牌信息。(2)车位检测与识别系统设计。该系统包括车位检测和车位状态识别两个部分。首先,车位检测利用两个摄像头对停车场内车位进行图像采集,将采集到的图像经过图像预处理、角度校正、霍夫直线检测、边界追踪和图像融合等一系列处理,得到双摄像头所在区域的完整车位图像。然后将融合后的图像利用二分类算法进行车位状态识别。最后在Access数据库中建立车位状态表,保存车位状态信息。(3)信息分享系统设计。该系统包括路径规划、界面设计和数据共享三个部分。首先,利用车位检测与识别系统得到的车位状态,以停车场入口处为起点,以距离入口最近的车位为终点进行最短路径规划。然后,利用车牌识别与信息储存系统得到的车牌信息,根据同一车牌号的进出时间和停车场收费规则,计算费用。最后,将停车场内的车位信息上传至高德地图网络库中,使用户可以通过高德地图导航查看该停车场的空缺车位所在的位置和车位空缺数。本文利用MATLAB进行图像处理完成车牌识别系统设计和车位识别系统设计,将采集到的信息分享给停车场计费与信息分享系统,然后利用Microsoft Visual Studio完成停车场计费与信息分享系统设计,从而达到用户可以直观寻找空缺车位的目的。

张书玮[9](2019)在《基于机器视觉和雷达数据融合的变电站巡检机器人自主导航方法研究》文中指出随着电力系统的快速发展和智能变电站的推广,旨在提高变电站巡检效率、减小人工巡检压力的变电站巡检机器人日益受到青睐。在变电站巡检机器人的“智能化”进程中,实现自主导航是其最基础也是最核心的技术。研究具有高定位精度、较强的环境适应能力和自主处理问题能力的变电站巡检机器人是本文的目标。由于仅使用单一的传感器进行导航难以满足变电站场景的需求,因此本文选择基于摄像头和三维激光雷达数据融合的自主导航方式。本文的研究工作主要包括传感器的标定技术、道路检测与机器人定位技术、障碍物检测与跟踪技术以及前方道路场景理解技术。在传感器的标定技术部分,首先建立摄像头和激光雷达模型,并确定传感器相互之间的位置关系;然后进行摄像头和激光雷达的自标定,详细介绍了各坐标系转换的推导过程,并通过标定实验确定各传感器数据与机器人之间的关系;进而从空间和时间两方面对摄像头和激光雷达进行联合标定,实现摄像头与激光雷达数据的融合;最后对摄像头所拍摄的图像进行了基于IPM的逆透视变换,从而得到前方道路的鸟瞰图。该部分作为自主导航的基础,是后续章节融合的重要桥梁。在道路检测部分,核心问题是提高车道线检测的鲁棒性,因此本文提出在传统的Hough直线检测的基础上加入基于HSV彩色空间变换的车道线区域提取。该方法除了利用Hough变换以及约束条件获得候选直线段之外,还通过对图像HSV颜色空间三通道的阈值进行限制,从而提取出具有特定颜色特征的车道标示线区域,最后将两种检测结果进行融合获得最终的车道线。实验证明,该方法有效减少了光照、阴影等环境变化对车道线检测的影响,提高了车道线检测的准确性与可靠性。在提取出两侧车道线之后,介绍了如何利用道路虚拟中心线和机器人的相对位置关系确定机器人的局部位姿,并通过基于PID的方法控制机器人跟随道路虚拟中心线行驶,从而进行机器人的局部定位与横向控制。在障碍物检测部分,首先构建合适的栅格地图对三维激光雷达所获得的点云数据进行预处理,将前方道路环境的三维点云数据转化为二维平面栅格地图;然后利用区域生长法对被障碍物占用的栅格进行聚类,获得障碍物的方位、距离以及大小信息,从而对障碍物特征参数进行提取。最后为了对所检测出的障碍物进行跟踪,使用扩展卡尔曼滤波对雷达的测量数据进行校正,提高了对障碍物跟踪的准确性。在前方道路场景理解方面,为了突出前方道路的场景特征,降低机器人对场景理解的难度,本文提出一种基于视觉和雷达检测结果融合的前方道路场景示意图,该示意图仅用黑白的几何化方式对前方道路的可通行情况与障碍物情况进行宏观描述而无冗余信息。进而,通过对该前方道路场景示意图进行HOG及GLCM特征提取,增大了不同类间的距离。最后,对于前方道路场景的理解,本文通过分析变电站特点,提出使用支持向量机(SVM)的方法训练得到多分类的前方道路场景分类器,用于判断前方道路中的障碍物情况,并通过实验验证该方法的可行性与有效性。该部分是本文的核心,也是实现机器人具备智能信息处理能力的体现。

张丞[10](2019)在《基于机器视觉的交警指挥手势检测识别技术研究与应用》文中认为近几年来,很多城市宣布自动驾驶汽车必须遵守交通警察的指挥手势。因此,对识别交警手势方法的需求十分急迫。传统的交警手势识别方法依靠于深度传感器或者可穿戴传感器,这会使这些方法在自动驾驶汽车上的应用受到限制。基于视觉传感器的识别方法对距离、光线等因素没有苛刻的要求,但是,由于视觉信息的复杂性,对其进行建模和解析的过程十分困难,纯手工设计的特征解析器难以达到人类对图片的识别准确度。通过视觉传感器识别交警手势主要面临两个挑战,第一个挑战在于,从包含交警的图片中提取交警的骨骼特征十分困难,因为实际场景包含复杂多变,难以预测的因素,例如光线和交警穿着的变化。第二个挑战在于如何减少或消除分类过程中的干扰,例如人物绝对位置和相机距离的变化。随着深度学习技术给视觉信息处理带来的巨大的突破,基于视频和深度学习的卷积姿势机在铰链式人体关键点检测领域取得了很大的进展。得益于此,本文提出了一种新的方法,可以基于视觉信息识别八种中国交警指挥手势,并且能够工作于实时环境中。本方法整合了卷积姿势机(CPM)网络和手工设计的“骨骼长度”和“骨骼角度”作为空间域的特征,应用了长短期记忆网络(LSTM)提取时间域上的特征。方法的设计在准确率和速度之间平衡,使得模型可以在线实时识别手势。同时,本文提供了总共约两小时的交警手势视频和标注数据,用于训练和验证本文中的方法。该数据集包含了不同人物在不同环境下,穿交警服装录制的交警手势,其中光线、距离和背景复杂度均有变化,使得方法验证过程比较可靠。针对自动驾驶汽车提供了一种识别中国交通警察指挥手势的方法和一个交警手势数据集,对自动驾驶汽车在实际道路中如何遵守交警指挥的问题提出了一种解决方案。

二、彩色地图图像中道路信息的识别和提取(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、彩色地图图像中道路信息的识别和提取(论文提纲范文)

(1)农牧区道路病害识别与定位分析(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 研究现状综述
        1.2.2 研究现状分析
    1.3 主要内容及章节安排
    1.4 技术路线
2 系统构成
    2.1 实验条件
        2.1.1 实验路段
        2.1.2 采集设备
        2.1.3 GPS定位设备
    2.2 实验注意事项
    2.3 软件运行环境
    2.4 系统运行机制和实验成果
3 路面病害分类及养护标准
    3.1 水泥混凝土路面典型病害分类
    3.2 路面病害等级评价
    3.3 水泥混凝土路面养护指标
    3.4 水泥混凝土路面养护措施
        3.4.1 裂缝处理措施
        3.4.2 坑洞处理措施
        3.4.3 露骨处理措施
    3.5 本章小结
4 路面病害识别
    4.1 图像处理软件
    4.2 图像预处理
        4.2.1 图像增强
        4.2.2 图像二值化
        4.2.3 图像去噪
    4.3 路面病害识别研究
        4.3.1 基于边界的图像处理
        4.3.2 基于阈值的图像分割
        4.3.3 图像掩膜和伪彩色处理
        4.3.4 图像特征提取
        4.3.5 病害特征识别分类
    4.4 本章小结
5 路面病害定位与呈现
    5.1 定位系统介绍
        5.1.1 GPS系统概念
        5.1.2 GIS系统概念
        5.1.3 电子地图概念
        5.1.4 GPS、GIS和电子地图的联系
    5.2 路面病害定位
        5.2.1 基于GIS OFFICE平台
        5.2.2 工程桩号的标记
        5.2.3 相邻导航点实际距离的计算
        5.2.4 距离误差检验
    5.3 技术工具介绍
        5.3.1 Web GIS技术
        5.3.2 Visual Studio平台
        5.3.3 Java语言
        5.3.4 百度地图API
    5.4 地图呈现功能的实现
        5.4.1 地图的创建和加载
        5.4.2 空间坐标的转换
        5.4.3 路面病害信息的导入和呈现
    5.5 本章小结
6 结论与展望
    6.1 结论
    6.2 展望
致谢
参考文献
作者简介

(2)基于单帧图像与稀疏点云融合的道路交通标线提取算法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
    1.3 研究内容
第2章 道路交通标线的分类及表达
    2.1 道路交通标线的分类
    2.2 道路交通标线的几何表达
第3章 融合单帧图像与稀疏点云的道路交通标线提取算法
    3.1 实验数据
    3.2 基于图像的道路交通标线边缘检测
        3.2.1 图像预处理
        3.2.2 道路交通标线边缘提取
    3.3 基于点云的道路交通标线内部点提取
        3.3.1 点云数据预处理
        3.3.2 OTSU算法提取道路交通标线内部点
    3.4 图像与点云的几何校正
        3.4.1 数据预处理
        3.4.2 几何校正
    3.5 道路交通标线的高程确定
        3.5.1 插值
        3.5.2 高程拟合
    3.6 道路交通标线的分类及表达
        3.6.1 各类道路交通标线的提取结果
        3.6.2 道路交通标线的几何表达
第4章 精度评定方法及分析
    4.1 基于图像的内部验证
    4.2 基于点云的外部验证
    4.3 精度分析
结论
参考文献
附录
致谢
攻读硕士期间发表论文及科研情况

(3)基于深度学习和多尺度多特征融合的高分辨率遥感地表覆盖分类研究(论文提纲范文)

致谢
摘要
Abstract
术语缩写表
1 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 遥感图像分割研究
        1.2.2 遥感图像特征提取与分类研究
        1.2.3 遥感图像迁移学习研究
        1.2.4 存在问题与不足
    1.3 研究目的与内容
        1.3.1 研究目的
        1.3.2 研究内容
        1.3.3 技术路线
    1.4 研究区域与实验数据
        1.4.1 研究区域
        1.4.2 实验数据
    1.5 论文组织与章节安排
2 超像素单尺度地表覆盖分类
    2.1 遥感图像ETPS超像素分割
        2.1.1 ETPS分割算法概述
        2.1.2 基于假彩色合成和图像增强的ETPS分割
        2.1.3 遥感图像ETPS分割结果
    2.2 光谱图像的超像素单尺度分类
        2.2.1 Xception卷积网络概述
        2.2.2 基于ETPS的 RSImage-Xception网络设计
    2.3 变换图像的超像素单尺度分类
        2.3.1 Contourlet图像变换概述
        2.3.2 基于ETPS的 RSContourlet-Xception网络设计
    2.4 实验结果分析
        2.4.1 地表覆盖分类评价指标
        2.4.2 实验环境配置
        2.4.3 实验数据与参数设置
        2.4.4 地表覆盖分类实验结果
    2.5 本章小结
3 深度网络融合的多尺度地表覆盖分类
    3.1 遥感多尺度分析及组合方案
        3.1.1 遥感多尺度分析概述
        3.1.2 多尺度组合方案设计
    3.2 1-DCNN深度融合的多尺度分类
        3.2.1 1-DCNN多尺度分类网络设计
        3.2.2 1-DCNN多尺度分类网络优化训练
    3.3 RNN深度融合的多尺度分类
        3.3.1 RNN循环网络概述
        3.3.2 RNN多尺度分类网络设计
        3.3.3 RNN多尺度分类网络优化训练
    3.4 实验结果分析
        3.4.1 实验数据与参数设置
        3.4.2 地表覆盖分类实验结果
    3.5 本章小结
4 注意力机制下的多尺度多特征地表覆盖分类
    4.1 注意力机制下的多尺度融合分类
        4.1.1 注意力机制概述
        4.1.2 注意力机制下的多尺度分类网络设计
    4.2 光谱-变换的多尺度多特征融合分类
        4.2.1 Image-Contourlet多特征分类网络设计
        4.2.2 Image-Contourlet多特征分类网络优化训练
    4.3 光谱-变换-对象的多尺度多特征融合分类
        4.3.1 Image-Contourlet-Object多特征分类网络设计
        4.3.2 Image-Contourlet-Object多特征分类网络优化训练
    4.4 实验结果分析
        4.4.1 实验数据与参数设置
        4.4.2 地表覆盖分类实验结果
    4.5 本章小结
5 多尺度多特征的迁移学习地表覆盖分类
    5.1 遥感图像迁移学习概述
    5.2 基于模型参数的单尺度迁移学习分类
        5.2.1 分阶段微调训练方式
        5.2.2 模型微调的单尺度迁移学习设计
    5.3 基于模型参数的多尺度多特征迁移学习分类
        5.3.1 模型微调的多尺度迁移学习设计
        5.3.2 模型微调的多尺度多特征迁移学习设计
    5.4 实验结果分析
        5.4.1 实验数据与参数设置
        5.4.2 地表覆盖分类实验结果
    5.5 本章小结
6 结论及展望
    6.1 研究总结
    6.2 研究特色与创新
    6.3 研究展望
参考文献
作者简历

(4)基于深度学习的道路场景语义分割方法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 传感器
        1.2.2 传统的道路场景语义分割
        1.2.3 基于深度学习的道路场景语义分割
    1.3 面临的问题
        1.3.1 异质异构数据的融合
        1.3.2 高度畸变图像的建模与学习
    1.4 本文研究内容与贡献
    1.5 本文组织结构
第二章 基础知识
    2.1 引言
    2.2 全卷积网络
        2.2.1 卷积层
        2.2.2 池化层
        2.2.3 上采样
        2.2.4 空洞卷积
        2.2.5 全连接层转换为卷积层
    2.3 图卷积神经网络
        2.3.1 谱图卷积
        2.3.2 空间图卷积
    2.4 多模态融合
        2.4.1 前融合
        2.4.2 后融合
        2.4.3 中间融合
    2.5 多任务学习
        2.5.1 硬参数共享
        2.5.2 软参数共享
        2.5.3 对多任务学习有效性的理解
    2.6 本章小结
第三章 基于交互式融合的RGB-D语义分割方法
    3.1 引言
    3.2 基本思路
    3.3 方法
        3.3.1 整体架构介绍
        3.3.2 降采样深度数据流
        3.3.3 残差融合模块
        3.3.4 与自顶向下的融合方法相结合
    3.4 实验结果与分析
        3.4.1 实验设置
        3.4.2 实现细节
        3.4.3 RGB-D语义分割性能评估
        3.4.4 消融实验
    3.5 本章小结
第四章 基于图像和点云融合的三维场景语义分割方法
    4.1 引言
    4.2 网络架构
    4.3 超点和超图的生成
    4.4 特征提取
        4.4.1 点云特征提取
        4.4.2 图像特征提取
    4.5 基于超点池化的联合学习
    4.6 实验结果与分析
        4.6.1 数据集
        4.6.2 实现细节
        4.6.3 三维场景语义分割性能评估
    4.7 本章小结
第五章 基于受限可变形卷积的环视图像语义分割方法
    5.1 引言
    5.2 受限可变形卷积
        5.2.1 受限可变形卷积的公式
        5.2.2 受限可变形卷积的因式分解形式
    5.3 基于多任务学习的训练方法
        5.3.1 多任务学习框架
        5.3.2 变焦增强方法
        5.3.3 基于自适应批标准化的多任务学习
        5.3.4 混合的损失权重
    5.4 实验结果与分析
        5.4.1 数据集
        5.4.2 受限可变形卷积性能评估
        5.4.3 真实环视图像上的性能评估
    5.5 本章小结
第六章 基于语义分割的车道级定位方法
    6.1 引言
    6.2 相关工作
    6.3 系统框架
    6.4 基于语义分割的道路边界和路面标志检测
        6.4.1 道路边界检测
        6.4.2 路面标志检测
    6.5 粗定位方法
        6.5.1 基于加权迭代最近点的匹配
        6.5.2 置信度计算
    6.6 精细定位方法
        6.6.1 路面标志地图的创建
        6.6.2 精细位置估计
    6.7 实验结果与分析
        6.7.1 道路边界和路面标志检测结果
        6.7.2 粗定位结果
        6.7.3 精细定位结果
    6.8 本章小结
第七章 总结与展望
    7.1 本文工作总结
    7.2 研究工作展望
参考文献
致谢
攻读博士学位期间已发表或录用的论文
攻读博士学位期间参与的项目
攻读博士学位期间申请的专利

(5)基于3D激光雷达和视觉融合的巡检机器人SLAM研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 引言
    1.2 课题背景及研究意义
    1.3 国内外研究现状
    1.4 本文研究工作
    1.5 论文结构安排
第2章 移动机器人SLAM分析
    2.1 引言
    2.2 传感器原理分析
    2.3 激光SLAM分析
    2.4 视觉SLAM分析
    2.5 激光与视觉SLAM实验对比分析
    2.6 本章小结
第3章 3D激光和视觉融合的SLAM算法设计
    3.1 引言
    3.2 算法融合框架
    3.3 改进的视觉帧间定位算法
        3.3.1 基于激光投影法的特征点深度计算
        3.3.2 视觉帧间位姿计算
    3.4 激光视觉双插值纠正点云畸变
    3.5 激光视觉位姿自适应选取方法
        3.5.1 IMU数据处理
        3.5.2 位姿自适应选取
    3.6 彩色激光点云地图构建
    3.7 本章小结
第4章 算法测试平台搭建及实验
    4.1 引言
    4.2 算法硬件平台搭建
    4.3 激光雷达和相机的标定
    4.4 算法软件平台搭建
    4.5 室内场景测试结果及分析
    4.6 室外数据集测试结果及分析
    4.7 变电站场景测试结果及分析
    4.8 本章小结
总结与展望
致谢
参考文献
攻读硕士学位期间发表的论文及研究成果

(6)基于视频GIS的城市道路交通视频空间化方法与应用研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 视频GIS国内外研究进展
        1.2.2 车辆识别技术国内外研究进展
        1.2.3 道路交通拥堵判别国内外研究进展
    1.3 研究内容与目标
        1.3.1 研究内容
        1.3.2 论文结构
第二章 道路交通信息平台总体设计
    2.1 需求分析
    2.2 可行性分析
    2.3 系统模块设计
    2.4 本章小结
第三章 视频空间化方法研究
    3.1 相机模型
    3.2 相机标定
    3.3 视频视域计算
    3.4 本章小结
第四章 车辆识别模块设计与实现
    4.1 特征学习方法对比
        4.1.1 图像特征描述子
        4.1.2 目标分类算法
        4.1.3 对比分析
    4.2 车辆识别算法流程
    4.3 图像预处理
    4.4 HOG特征提取
    4.5 SVM分类器训练
    4.6 车辆识别检测
    4.7 目标跟踪算法研究
    4.8 本章小结
第五章 城市交通信息平台搭建与展示
    5.1 拥堵判定原理
    5.2 交通拥堵模型构建
    5.3 效果展示
    5.4 本章小结
第六章 总结与展望
    6.1 主要研究结论
    6.2 未来工作展望
参考文献
攻读硕士学位期间完成的科研成果
致谢

(7)城市环境下智能车行车环境精确感知关键技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题研究背景及意义
    1.2 智能驾驶汽车发展现状
        1.2.1 国外智能驾驶汽车发展现状
        1.2.2 国内智能驾驶汽车发展现状
    1.3 智能车行车环境感知方法的研究现状
        1.3.1 实时地面分割
        1.3.2 道路边界检测
        1.3.3 目标检测与识别
    1.4 本文主要研究内容及章节安排
        1.4.1 研究内容
        1.4.2 章节安排
第二章 智能车整车架构及行车环境感知系统简介
    2.1 智能驾驶平台整车架构
        2.1.1 智能驾驶平台硬件系统
        2.1.2 智能驾驶平台软件系统
    2.2 行车环境感知系统需求分析
    2.3 行车环境感知系统框架
        2.3.1 视觉传感器
        2.3.2 激光雷达
        2.3.3 毫米波雷达
        2.3.4 V2X车路协同传感器
    2.4 三维激光雷达工作原理及数据结构
        2.4.1 三维激光雷达工作原理
        2.4.2 三维点云数据结构
    2.5 本章小结
第三章 基于三维激光雷达的地面点云分割方法研究
    3.1 引言
    3.2 三维激光雷达数据预处理
    3.3 基于自适应栅格的三维激光雷达地面点云分割
        3.3.1 自适应极坐标栅格地图构建
        3.3.2 基于自适应栅格的地面点云分割
        3.3.3 实验分析与评估
    3.4 基于径向距离分析的地面点云分割算法
        3.4.1 三维激光雷达点云序列化
        3.4.2 基于径向距离分析的地面点云分割
        3.4.3 实验分析与评估
    3.5 本章小结
第四章 基于三维激光雷达的城市道路边界检测方法研究
    4.1 引言
    4.2 基于三维激光雷达的道路边界提取算法
        4.2.1 地面点云提取
        4.2.2 道路边界点特征选择
        4.2.3 道路边界特征点搜索
        4.2.4 道路边界拟合
    4.3 实验分析与评估
        4.3.1 定性实验
        4.3.2 定量实验
    4.4 本章小结
第五章 基于三维激光雷达点云与图像融合的目标检测方法研究
    5.1 引言
    5.2 算法流程
    5.3 基于三维激光雷达点云的目标候选区域生成
        5.3.1 三维地面点云分割
        5.3.2 非地面点云聚类分割
        5.3.3 三维包围盒拟合
        5.3.4 目标候选区域生成
    5.4 基于CNN的目标特征提取与目标识别
        5.4.1 卷积神经网络(CNNs)
        5.4.2 基于CNNs的目标识别
    5.5 实验分析与评估
        5.5.1 KITTI目标检测数据集
        5.5.2 实验评估
    5.6 本章小结
第六章 结论与展望
    6.1 论文总结
    6.2 研究展望
参考文献
攻读博士学位期间取得的成果
致谢

(8)汽车停车场计费控制与信息分享系统研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 课题研究背景和意义
    1.2 国内外研究现状
        1.2.1 车牌识别与信息储存系统现状
        1.2.2 车位检测与识别系统现状
        1.2.3 信息分享系统现状
    1.3 主要研究内容与章节安排结构
        1.3.1 课题主要研究内容
        1.3.2 课题章节安排
第二章 车牌识别与信息存储系统
    2.1 车牌识别系统设计
        2.1.1 车牌图像预处理
        2.1.2 车牌信息定位
        2.1.3 车牌分割
        2.1.4 车牌信息识别
    2.2 车牌信息储存系统设计
    2.3 本章小结
第三章 车位检测系统设计
    3.1 图像处理预备算法
        3.1.1 霍夫变换算法
        3.1.2 内边界追踪算法
    3.2 双摄像头图像采集
        3.2.1 摄像头工作原理
        3.2.2 摄像头位置分析
        3.2.3 霍夫变换与图像定位
    3.3 图像融合
    3.4 本章小结
第四章 车位状态识别系统
    4.1 SVM算法概述
        4.1.1 线性SVM算法
        4.1.2 非线性SVM算法
    4.2 线性分类
        4.2.1 线性可分性
        4.2.2 Logistic回归
        4.2.3 损失函数
        4.2.4 经验风险与正则化
    4.3 核函数
    4.4 车位状态识别
    4.5 车位信息储存
    4.6 本章小结
第五章 信息分享系统设计
    5.1 路径规划系统设计
        5.1.1 道路规划算法简介
        5.1.2 路径规划系统
    5.2 界面设计
        5.2.1 管理员界面设计
        5.2.2 入口界面设计
        5.2.3 出口界面设计
    5.3 数据共享
    5.4 本章小结
结论
参考文献
攻读学位期间所获得相关科研成果
致谢

(9)基于机器视觉和雷达数据融合的变电站巡检机器人自主导航方法研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 课题研究背景
    1.2 国内外变电站巡检机器人的现状和发展趋势
    1.3 智能机器人自主导航技术概述
    1.4 研究思路与主要研究内容
2 环境感知系统传感器配置及标定
    2.1 引言
    2.2 传感器配置
    2.3 传感器模型研究及自标定
    2.4 摄像头与雷达的数据融合
    2.5 逆透视变换
    2.6 本章小结
3 基于直线检测和色彩空间变换的车道线检测
    3.1 引言
    3.2 基于Hough法的道路检测
    3.3 基于色彩空间变换的车道线区域提取
    3.4 数据融合
    3.5 基于车道虚拟中心线的车辆控制
    3.6 本章小结
4 基于三维激光雷达的障碍物检测与跟踪
    4.1 引言
    4.2 基于三维激光雷达的障碍物数据处理
    4.3 基于扩展卡尔曼滤波的障碍物跟踪
    4.4 本章小结
5 基于机器学习的前方道路场景分类
    5.1 引言
    5.2 前方道路场景几何示意图
    5.3 基于SVM的前方道路场景理解
    5.4 SVM 分类实验
    5.5 本章小结
6 总结与展望
    6.1 全文总结
    6.2 展望
致谢
参考文献
附录

(10)基于机器视觉的交警指挥手势检测识别技术研究与应用(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景
    1.2 研究意义
    1.3 国内外研究现状
        1.3.1 基于可穿戴传感器的交警手势识别方法
        1.3.2 基于深度传感器的交警手势识别
        1.3.3 基于视觉传感器的交警手势识别
    1.4 研究内容
    1.5 论文结构
第2章 手势检测识别关键技术
    2.1 动作识别
    2.2 人体姿态估计
    2.3 本章小结
第3章 交警手势建模技术
    3.1 交警指挥手势描述
    3.2 自制交警手势数据集描述
    3.3 铰链式姿势位置表示
    3.4 人体关键点数据集描述
    3.5 人体部件的连接依赖关系
    3.6 本章小结
第4章 交警手势检测识别算法
    4.1 交警手势检测总体过程
    4.2 交警部件检测定位网络
        4.2.1 算法流程
        4.2.2 损失函数
        4.2.3 真实置信度转换算法
    4.3 交警手势空间特征提取算法
        4.3.1 手势空间特征提取需求
        4.3.2 规格化骨骼长度和骨骼重力方向夹角
        4.3.3 手势空间特征提取总体过程
        4.3.4 算法流程
    4.4 手势识别记忆网络
        4.4.1 记忆网络选择
        4.4.2 算法流程
        4.4.3 损失函数
    4.5 本章小结
第5章 算法实现
    5.1 交警部件定位网络实现
        5.1.1 卷积网络结构
        5.1.2 卷积网络感受野
    5.2 交警手势空间特征提取算法实现
        5.2.1 算法伪代码
        5.2.2 算法并行化设计
    5.3 长短期记忆网络实现
        5.3.1 长短期记忆网络结构
        5.3.2 训练标注预处理
    5.4 本章小结
第6章 算法效果验证
    6.1 评价标准
        6.1.1 编辑距离
        6.1.2 标注去重复
    6.2离线实验
        6.2.1 数据集分割
        6.2.2 离线实验总体流程
        6.2.3 编辑距离分析
        6.2.4 对比现有方法
        6.2.5 错误结果分析
        6.2.6 部件定位网络阶段数分析
    6.3在线实验
    6.4 本章小结
结论
参考文献
攻读硕士学位期间取得的研究成果
致谢

四、彩色地图图像中道路信息的识别和提取(论文参考文献)

  • [1]农牧区道路病害识别与定位分析[D]. 徐鑫. 内蒙古农业大学, 2021(02)
  • [2]基于单帧图像与稀疏点云融合的道路交通标线提取算法研究[D]. 衣鹏军. 北京建筑大学, 2020(07)
  • [3]基于深度学习和多尺度多特征融合的高分辨率遥感地表覆盖分类研究[D]. 张书瑜. 浙江大学, 2020(01)
  • [4]基于深度学习的道路场景语义分割方法研究[D]. 邓琉元. 上海交通大学, 2020(01)
  • [5]基于3D激光雷达和视觉融合的巡检机器人SLAM研究[D]. 王安涛. 西南交通大学, 2020(07)
  • [6]基于视频GIS的城市道路交通视频空间化方法与应用研究[D]. 郑思捷. 云南大学, 2020(08)
  • [7]城市环境下智能车行车环境精确感知关键技术研究[D]. 孙朋朋. 长安大学, 2019(07)
  • [8]汽车停车场计费控制与信息分享系统研究[D]. 于雪梅. 河北工业大学, 2019(06)
  • [9]基于机器视觉和雷达数据融合的变电站巡检机器人自主导航方法研究[D]. 张书玮. 华中科技大学, 2019(01)
  • [10]基于机器视觉的交警指挥手势检测识别技术研究与应用[D]. 张丞. 北京工业大学, 2019(03)

标签:;  ;  ;  ;  ;  

彩色地图图像中道路信息的识别与提取
下载Doc文档

猜你喜欢