Advanced Search

ISSN1001-3806 CN51-1125/TN Map

Volume 46 Issue 5
Sep.  2022
Article Contents
Turn off MathJax

Citation:

Detection of road roughness and drivable area based on LiDAR

  • Received Date: 2021-08-18
    Accepted Date: 2021-10-09
  • In order to improve the accuracy of road unevenness detection by vehicle-mounted lidar in outdoor scenes, the road environment information was extracted and segmented by the network structure of random down-sampling and local feature aggregation. Random sampling method was added in the segmentation process to improve the computing efficiency of high point cloud information. To solve the problem of the loss of key features in the segmentation process of road environment information, local feature aggregator was added to increase the acceptance domain of each 3-D point cloud to retain geometric details. The results show that the proposed algorithm can accurately identify the road environment information, and the recognition accuracy of convex hull, pit, and road able area reaches 71.87%, 82.71%, and 93.01% respectively, which is significantly improved compared with the traditional convolution neural network. This study can efficiently extract the information of road roughness and road able area. Thus, the active safety and ride comfort of the vehicle are improved.
  • 加载中
  • [1]

    KUMAR P, ANGELATS E. An automated road roughness detection from mobile laser scanning date[J]. Remote Sensing and Spatial Information Sciences, 2017, 42(1): 91-96.
    [2]

    BALARINI J P, NESMACHNOW S. A C++ implementation of Otsu's image segmentation method[J]. Image Processing on Line, 2016, 6(10): 155-164.
    [3]

    KUMAR P, MCELHINNEY C P, LEWIS P, et al. Automated road markings extraction from mobile laser scanning data[J]. International Journal of Applied Earth Observation and Geoinformation, 2014, 32(1): 125-137.
    [4]

    MICHEL A, KAPIT J, WITINSKI M F, et al. Open-path spectroscopic methane detection using a broadband monolithic distributed feedback-quantum cascade laser array[J]. Applied Optics, 2017, 56(11): 23-29. doi: 10.1364/AO.56.000E23
    [5]

    ZHU J K, LI L J, LIN X Zh. Research on the measurement field planning of LiDAR measurement system[J]. Laser Technology, 2021, 45(1): 99-104(in Chinese).
    [6]

    WU J J, CHEN L, LI L, et al. Research on power line extraction and reconstruction in airborne LiDAR point cloud[J]. Laser Technology, 2019, 43(4): 64-69(in Chinese).
    [7]

    YANG B Sh, LIU Y, DONG Zh, et al. 3D local feature BKD to extract road information from mobile laser scanning point clouds[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2017, 130(8): 329-343.
    [8]

    YAN L, LIU H, TAN J X, et al. Scan line based road marking extraction from mobile LiDAR point clouds[J]. Sensors, 2016, 16(6): 6-21.
    [9]

    MA L F, LI Y, LI J H, et al. Capsule-based networks for road marking extraction and classification from mobile LiDAR point clouds[J]. IEEE Transactions on Intelligent Transportation Systems, 2021, 22(4): 1981-1995. doi: 10.1109/TITS.2020.2990120
    [10]

    GUAN H Y, YAN W Q, YU Y T, et al. Robust traffic-sign detection and classification using mobile LiDAR data with digital images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(5): 1715-1724. doi: 10.1109/JSTARS.2018.2810143
    [11]

    GARGOUM S, EL-BASYOUNY K, SABBAGH J, et al. Automated highway sign extraction using LiDAR data [J]. Transportation Research Record, 2017, 2643(1): 1-8. doi: 10.3141/2643-01
    [12]

    HU Z Zh, LIU J H, H G, et al. Indoor robot localization based on wifi, LiDAR and map [J]. Journal of Electronics and Information Technology, 2021, 43(8): 2308-2316(in Chinese).
    [13]

    MA L F, LI Y, LI J H, et al. Generation of horizontally curved driving lines in HD maps using mobile laser scanning point clouds[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12(5): 1572-1586. doi: 10.1109/JSTARS.2019.2904514
    [14]

    LANDRIEU L, SIMONOVSKY M. Large-scale point cloud semantic segmentation with superpoint graphs[C]//2018 IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition (CVPR). New York, USA: CVPR, 2018: 4558-4567.
    [15]

    YAN Sh, ZHANG M J, FAN Y Ch, et al. Research progress of 3D reconstruction technology for large-scale outdoor image[J]. Chinese Journal of Image and Graphics, 2021, 26(6): 1429-1449.
    [16]

    MA Y, ZHENG Y B, CHENG J Ch, et al. Real-time visualization method for estimating 3D highway sight distance using LiDAR data[J]. Journal of Transportation Engineering, 2019, A145(4): 1-14.
    [17]

    YU L L, YU H Y, HE Z X, et al. Point cloud scene segmentation based on dual attention mechanism and multi-scale features[J]. Laser & Optoelectronics Progress, 2021, 58(24): 2428007(in Chin-ese).
    [18]

    YU Z L, HU Y J. Initial road extraction from airborne LiDAR point cloud[J]. Laser & Optoelectronics Progress, 2021, 58(24): 2401003 (in Chinese).
    [19]

    XIE B, ZHAO Y N, GAO L, et al. Small target semantic s egmen-tation enhancement method based on LiDAR point cloud [J]. Laser Journal, 2020, 41(4): 18-23(in Chinese).
    [20]

    HU Q Y, YANG B, XIE L H, et al. RandLA-net: Efficient semantic segmentation of large-scale point clouds[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New York, USA: CVPR, 2020: 11108-11117.
  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(7) / Tables(2)

Article views(3660) PDF downloads(24) Cited by()

Proportional views

Detection of road roughness and drivable area based on LiDAR

  • 1. State Key Laboratory of Mechanical Behavior and System Safety of Traffic Engineering Structures, Shijiazhuang Tiedao University, Shijiazhuang 050043, China
  • 2. School of Electrical and Electronic Engineering, Shijiazhuang Tiedao University, Shijiazhuang 050043, China
  • 3. Hebei Province Center for Disease Prevention and Control, Shijiazhuang 050021, China

Abstract: In order to improve the accuracy of road unevenness detection by vehicle-mounted lidar in outdoor scenes, the road environment information was extracted and segmented by the network structure of random down-sampling and local feature aggregation. Random sampling method was added in the segmentation process to improve the computing efficiency of high point cloud information. To solve the problem of the loss of key features in the segmentation process of road environment information, local feature aggregator was added to increase the acceptance domain of each 3-D point cloud to retain geometric details. The results show that the proposed algorithm can accurately identify the road environment information, and the recognition accuracy of convex hull, pit, and road able area reaches 71.87%, 82.71%, and 93.01% respectively, which is significantly improved compared with the traditional convolution neural network. This study can efficiently extract the information of road roughness and road able area. Thus, the active safety and ride comfort of the vehicle are improved.

引言
  • 为实现车辆的智能化与无人驾驶,需要对道路进行分割,划分为可行驶区域和不可行驶区域,为车辆行为决策以及路径规划与控制提供基础道路信息。对道路可安全行驶的区域分割完成后,可行驶区域道路中不平度信息的检测也是保证车辆安全行驶的关键信息,道路不平度分为表面缺陷、接头、裂缝和变形,这些变形可能是由于道路使用、疲劳、热变化、水份损坏、施工或公用事业修复过程造成的[1]。崎岖的道路通常与一些典型的交通事故有关,如失控、撞到固定或移动的物体。一些研究表明,事故率随着路面粗糙度的增加而增加。它们还可能影响滚动阻力、乘坐质量、车辆运行成本和燃料消耗。因此,对道路凸包、凹陷不平度信息及道路可行驶区域的研究至关重要,进行精确的道路检测、定位和分类,以提高车辆的主动安全性,使车辆安全可靠的行驶[2]

    到目前为止,对道路凸包、凹陷不平度信息及可行驶区域的检测都是基于人工或图像对道路进行检查。通过这些方法进行大规模道路环境检测时费时费力,并且采集的信息有时不完整,难以对道路不平度信息进行定性评估[3]。另外,传统的摄像机对凹凸障碍物及可行驶区域进行分析的方法,在阴雨、雾霾等恶劣条件下相机无法正确识别目标信息。与相机相比,激光受光线的影响也较小,可实现不同天气下的高精度检测。移动路谱仪系统[4]可以快速获取场景的精准和大量的点云数据,为解决道路环境信息感知问题提供了一套可靠的方案。但是,移动路谱仪价格昂贵、体积大的劣势使其不能大规模应用于实际工程中。随着自动驾驶以及机器人等领域的发展,低成本、高精度的激光雷达[5]被广泛的应用与发展,但目前的研究主要将车载激光雷达应用于无人驾驶车辆对于道路环境的检测,如道路路面分割[6-7]、道路标线提取[8-9]、道路交通标牌识别[10-11]等。在高精地图构建、全场景道路物体语义分割、道路不平度检测等领域中也有非常重要的地位[12-13]。车载激光雷达在路面不平度方面研究的不足,应用语义分割的方法对道路不平度和可行驶区域进行检测[14-15]。近期大多采用深度学习的方法[16-18]对激光雷达点云数据进行处理,但这些方法大多采用几何方法,无法实现凹坑与凸起等小目标的检测。

    本文中为了实现基于激光雷达点云数据对无人驾驶车辆行驶场景中的环境要素进行语义分割,并且加强对道路中凸起、凹陷等小目标信息[19]以及道路可行驶区域的语义分割能力,使车辆提前做出预判,规划路径,提高车辆的主动安全性为出发点。采用一种端到端的随机降采样和局部特征聚合的神经网络结构,使用随机采样和增强策略来处理点云数据,实现对道路环境的快速分割,特别是凸起、凹陷与道路可行驶区域的分割。该网络模型的关键是使用随机点采样,但随机采样的方法会丢关键特征,为了克服这一难点加入局部特征聚合模块来增加每个3维点的接受场,从而有效地保留几何细节。

1.   语义分割网络描述
  • 随机降采样和局部特征聚合的网络结构如图 1所示。采用广泛使用的编码-解码架构与跳跃连接的网络。首先点云输入到共享的多层感知器,以提取每点的特征; 然后使用4个编码和解码层来学习每个点的特征; 最后使用3个全连接层和一个退出层来预测每个点的语义标签。其中,(Nd)表示点数和特征维数,FC(full connection)表示全连接层,LFA(local feature aggregation)表示局部特征聚合模块,RS(random sampling)表示随机采样,MLP(multiple layers perceptron)表示共享多层感知器,US(up sampling)表示上采样,DP(drop)表示退出。

    Figure 1.  Random sampling and local feature aggregation net

    网络输入:输入是一个大规模的点云,大小为N×din,其中N是点数,din是每个输入点的特征维数。

    编码层:点云数据量庞大,采用编码层对数据进行压缩处理,网络中使用了4个编码层来逐步减少点云,并增加每个点的特征维度。每个编码层由一个局部特征聚合模块和一个随机采样操作组成。点云下采样率为4倍,在每一层之后仅保留25%的特征点,即:(NN/4→N/16→N/64→N/256)。同时,每点特征维度逐渐增大,以保存更多信息,即:(8→32→128→256→512)。

    解码层: 在上述编码层之后使用4个解码层。对于解码器中的每一层,使用k最近邻域算法为每个查询点找到一个最近邻点,之后通过最近邻点对特征点集进行上采样。通过跳跃连接将上采样的特征映射与编码层生成的中间特征映射连接起来,之后对连接的特征映射应用共享多层感知器[20]

    最终语义预测:通过3个共享的全连通层(N,64)→(N,32)→(Nnc)和一个退出层,获得每个点的最终语义信息,大小为N×nc,其中nc是类数。

    本网络的关键是采用了随机采样的方法。随机采样均匀地从输入的点中选择K个点来确保每个点都有被选中的可能。因为随机采样计算的复杂程度与计算量和输入点云数量无关,并且只与降采样后的点数K有关,使得随机采样的方法具有高效的计算效率良好的扩展性。随机采样与其它采样方法相比(例如最远点采样和重要性采样),只需4ms便可完成与最远点采样方法完成相同的降采样任务。采用随机采样的方法虽然可以提高计算速度和内存的效率,但会丢失关键特征[20]

  • 为解决上述采用随机采样方法导致关键特征丢失的问题,引入局部特征聚合来增加每个3-D点的接受场来保留几何细节。

    局部特征聚合模块主要包括3个子模块: (1)局部空间编码;(2)注意力池;(3)扩张残差块。

  • 给定一个点云p和每个点的特征,这个局部空间编码单元(local spatial encoding,LocSE)将明确嵌入所有相邻点的3维空间坐标,这样相应点的特征总是知道自身的相对空间置。采用局部空间编码单元来观察局部几何结构,有利于整个网络有效地学习复杂的局部结构。

    本单元具体步骤如下:寻找相邻的点,对于第i个点,为提高效率它的相邻点通过k最近邻域算法进行收集,采用的k最近邻域算法是基于逐点欧氏距离算法。

    对于中心点pi的每一个最近的K点{pi1, pik, piK},明确编码相对点位置,方法如下:

    式中,pipik是点在3维空间坐标系x-y-z中的位置,M代表共享多层感知器函数,⊕是连接操作,‖·‖是计算相邻点和中心点之间的欧几里得距离,rik是冗余点位置的编码。

    对于每个相邻点pik,编码的相对点位置rik与其相应的特征点fik连接,获得增强的特征向量fik。最终,局部空间编码单元输出的是一组新的相邻特征Fi={f1i, fik, fiK},明确地编码了中心点Pi的局部几何结构。

  • 神经网络用于聚合相邻特征点Fi的集合,通常使用最大/平均池集成邻近的特性,会导致大部分信息丢失。相比之下,转向强大的注意机制来自动学习重要的局部特征会减少信息丢失。注意力池包括以下步骤:计算注意力分数,给定一组局部特征Fi={fi1, fik, fiK},通过共享函数g(·)来学习每个特征的唯一注意力分数,g(·)由一个共享的多层感知器和柔性最大值传输函数组成。表达式如下:

    式中,w是共享的多层感知器的可学习权值。

    加权求和,学习到的注意力分数可以看作是一个自动选择重要特征的软掩模。特征加权求和见下式:

    总之,给定输入点云p,对于第i个点pi,局部空间编码单元和注意力池单元学习聚合k最近点的几何模式和特征,生成一个信息特征向量fi

  • 由于大场景的点云将被大幅度地降采样,因此需要显著地增加每个点的接受域,这样即使一些点被删除,输入点云的几何细节也更有可能被保留。本文中通过堆叠多个局部空间编码单元和注意池单元,并使用一个跳跃连接作为扩展的残留块,如图 2所示。

    Figure 2.  Dilated residual block

    总的来说,本文中的局部特征聚合模块通过明确考虑相邻几何结构和显著增加接受域来有效地保留复杂的局部结构。此外,该模块仅由前馈共享多层感知器组成,具有较高的计算效率。

2.   实验分析
  • 本文中采用的禾赛40线激光雷达激光束分布如表 1所示。其中线束6~线束30,相邻线束间的垂直角分辨率为0.33°;线束30~线束38,相邻两线束的垂直角分辨率为1°。对激光雷达垂直角度计算分析,采用传统方法水平安装在车辆的顶部位置,激光雷达在对路面扫描时,有将近一半的激光束无法打到地面,极大地损失了激光雷达的检测能力,因此,本文中为了提高激光雷达的利用率, 并提高对地面不平度的检测效率,通过实际工程实验确定了安装角度,且可高效对路面不平度信息进行检测。

    number vertical angle/(°) number vertical angle/(°)
    1 15.00 31 -7.00
    2 11.00 32 -8.00
    3 8.00 33 -9.00
    4 5.00 34 -10.00
    5 3.00
    6 2.00 38 -14.00
    39 -19.00
    30 1.33 40 -25.00

    Table 1.  Laser beam distribution of lidar

    当向下安装的倾斜角度大于激光雷达斜向上发射的最大光束时,激光雷达发射的激光束将全部用于道路检测,如图 3所示。如何在充分利用激光雷达的检测能力的条件下保证其检测范围,需要对激光雷达水平向下的倾斜角度进行计算确定,计算式如下:

    Figure 3.  Schematic diagram of LiDAR installation

    式中,dhαβ分别代表检测距离、高度、向下倾斜角度和激光束垂直角度。

    通过实车实验, 对比不同角度下激光雷达对路面凹凸信息的检测情况,如图 4所示。水平安装在车辆顶部时无法准确识别凹凸信息,倾斜角度过大无法保证检测距离,最终激光雷达的安装在高度约为1.8m的车辆顶部位置,安装角度为30°时能够覆盖车辆前方1.26m~6.76m,可准确检测出道路路面上的凸包和凹坑。

    Figure 4.  Scanning effect at different angles

  • 硬件配置为英特尔E5-26650@2.40GHz和英伟达GeForce GTX1080Ti、8GB GPU。在Ubuntu18.04和Python3.6.7的条件下搭建CUDA 11.0、CUDNN 7.6.5、TensorFlow 1.15.0深度学习环境。随机降采样和局部特征聚合的网络结构的训练共用13h。网络训练时参数设置: 预处理参数为0.06,初始学习率为0.01,初始衰减率为0.95,初始噪声为3.5,一次训练所抓取的数据样本数量为6,最大模型训练次数max_epoch为100。

    作者通过安装在智能车上的禾赛激光雷达对校园道路环境信息进行数据采集,通过标注软件CloudCompare打标签制作完成的数据集。该数据集是用于对室外场景点云进行分割,数据集中道路包括道路不平度、可行驶区域、建筑物和杂草树木等信息的800个数据,其中训练集700个,验证集50个,测试集50个。本文中道路不平度指路面中直径大于40cm,高度或深度大于5cm的凹坑与凸起;道路可行驶区域为路沿内的安全行驶区域,实验中为宽3m的水泥路面;其它信息为道路两旁的树木与建筑物信息。各数据集中各类别点云个数如表 2所示,测试数据集中复杂程度小目标。

    category convex hull pit road weed trees building
    training set 35691 119884 3868441 7142353 23677091
    validation set 2482 8339 277140 505021 1685063
    tfbgest set 2504 8506 265809 517950 1693570

    Table 2.  Number of different point clouds

  • 本文中的实验场景、原始点云以及训练后模型的测试样本如图 5所示。其中图 5a为实测校园道路图像信息,图 5b为激光雷达采集的校园道路环境的原始点云信息,图 5c是经过点云语义分割之后的道路信息。可以看出,本文中训练的模型对道路建筑物、路面凸包、凹坑以及杂草数木可以达到很好的分割效果,其中红色代表建筑和路沿石、绿色代表道路区域、黄色代表杂草树木,并且凸包、凹坑用蓝色和深绿色表示。语义分割说到底是一个分类任务,预测的结果往往有4种情况:真正样本数量、假负样本数量、真正样本数量、假负样本数量。语义分割的评价由均交并比(mean intersection over union, MIoU)表示,一般都是基于类进行计算的,将每一类的交并比(intersection over union, IoU)计算之后累加,再进行平均,得到的就是基于全局的评价。

    Figure 5.  Experimental scene effect

    训练后模型的总体精度达到了88.52%。训练过程中模型的均交并比和各类别的值如图 6所示。由图 6可以看出,随着模型训练次数的增加,各类别的值趋于稳定,均交并比的值基本稳定在88.52%,凸包、凹坑、道路可行驶区域、杂草树木以及建筑物的值分别维持在71.87%,82.71%,93.01%,94.97% 和94.32%上下,相比于传统点网络、卷积神经网络等算法中的小目标检测而言,本文中的对小目标坑和凸起的精度较高。如图 7所示,评价精度经过1个模型训练之后基本稳定在96%左右。

    Figure 6.  Changes of MIoU during training

    Figure 7.  Eval accuracy curve

3.   结论
  • 针对3-D室外场景道路中道路凸包、凹坑不平度信息对车辆安全行驶的影响,确定激光雷达的安装方式,并通过实验发现将激光雷达水平向下倾斜30°安装,可以很好地对道路中凸包、凹坑进行采集。对采集的数据通过标注软件CloudCompare打标签制作完成的数据集,用随机降采样和局部特征聚合的网络结构实现室外3-D点云的语义分割,主要目的是对非结构化道路中的凸包、凹坑以及道路可行驶区域进行分割。与其它模型相比,在室外大规模点云下,随机降采样和局部特征聚合的网络结构总体准确度比较高,进一步提高了模型的分割精度,尤其对于道路凸包、凹坑来说,本文中的精确度为71.87%和82.71%。该研究对于道路凸包、凹坑及可行驶区域的检测,以及之后无人车智能悬架调节和车辆的主动安全方面提供了依据。

Reference (20)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return