型号 Channel 数量 每秒产生点数
Velodyne HDL-64E 64 Channels 2,200,000
Velodyne HDL-32E 32 Channels 700,000
Velodyne VLP-16 16 Channels 300,000

http://robotglobe.org/e-stores/sensors/velodyne-lidar-inc/

Velodyne HDL-64E The HDL-64E LiDAR sensor is designed for obstacle detection and navigation of autonomous ground vehicles and marine vessels. Its durability, 360° field of view and very high data rate makes this sensor ideal for the most demanding perception applications as well as 3D mobile data collection and mapping applications.
Channels 64
Range 100-120 m
Accuracy +/- 2cm
Data Distance / Intensity
Data Rate 1.3M pts/sec
Vertical FOV 26.8º
Vertical Resolution ~ 0.4º
Horizontal FOV 360º
Horizontal Resolution 5Hz: 0.08º10Hz: 0.17º20Hz: 0.35º
Input Voltage 10-32 VDC
Power 60W
Environmental IP67
Operating Temperature -10º to 50º C
Size 203mm x 284mm (~8” x ~11”)
Weight 15kg (33lbs)

32E The HDL-32E LiDAR sensor is small, lightweight, ruggedly built and features up to 32 lasers across a 40° vertical field of view. The HDL-32E measures only 5.7″ high x 3.4″ in diameter, weighs less than two kilograms and was designed to exceed the demands of the most challenging real-world autonomous navigation, 3D mobile mapping and other LiDAR applications.
Channels 32
Range 80-100 m
Accuracy +/- 2cm
Data Distance / Calibrated Reflectivities
Data Rate 700,000 pts/sec
Vertical FOV 40º
Vertical Resolution ~ 1.3º
Horizontal FOV 360º
Horizontal Resolution 5Hz: 0.08º10Hz: 0.17º20Hz: 0.35º
Input Voltage 9-32 VDC
Power 12W
Environmental IP67
Operating Temperature -10º to 60º C
Size 86mm x 145mm (~3.6” x ~6”)
Weight 1kg (2.2lbs)
VLP-16 Velodyne’s new PUCK™(VLP-16) sensor is the smallest, newest, and most advanced product in Velodyne’s 3D LiDAR product range. Vastly more cost-effective than similarly priced sensors, and developed with mass production in mind, it retains the key features of Velodyne’s breakthroughs in LiDAR: Real-time, 360°, 3D distance and calibrated reflectivity measurements.
Channels 16
Range 100 m
Accuracy +/- 3cm
Data Distance / Calibrated Reflectivities
Data Rate 300,000 pts/sec
Vertical FOV 30º
Vertical Resolution ~ 2.0º
Horizontal FOV 360º
Horizontal Resolution 5Hz: 0.1º10Hz: 0.2º20Hz: 0.4º
Input Voltage 9-32 VDC
Power 8W
Environmental IP67
Operating Temperature -10º to 60º C
Size 104mm x 72mm (~4” x ~3”)
Weight 0.83kg (1.8lbs)

计算性能挑战:计算量大

从表1可以看到,即使是16线的LiDAR每秒钟要处理的点也达到了30万。要保证无人车定位算法和障碍物检测算法的实时性,如此大量的数据处理是面临的一大挑战。例如,之前所说的LiDAR给出的原始数据只是反射物体的距离信息,需要对所有产生的点进行几何变换,将其转化为位置坐标,这其中至少涉及4次浮点运算和3次三角函数运算,而且点云在后期的处理中还有大量坐标系转换等更复杂的运算,这些都对计算资源 (CPU、GPU、FPGA) 提出了很大的需求。

高清地图的绘制

这里的高清地图不同于我们日常用到的导航地图。高清地图是由众多的点云拼接而成,主要用于无人车的精准定位。高清地图的绘制也是通过LiDAR完成的。安装LiDAR的地图数据采集车在想要绘制高清地图的路线上多次反复行驶并收集点云数据。后期经过人工标注,过滤一些点云图中的错误信息,例如由路上行驶的汽车和行人反射所形成的点,然后再对多次收集到的点云进行对齐拼接形成最终的高清地图。

基于点云的定位

首先介绍定位的重要性。很多人都有这样的疑问:如果有了精准的GPS,不就知道了当前的位置,还需要定位吗?其实不然。目前高精度的军用差分GPS在静态的时候确实可以在“理想”的环境下达到厘米级的精度。这里的“理想”环境是指大气中没有过多的悬浮介质而且测量时GPS有较强的接收信号。然而无人车是在复杂的动态环境中行驶,尤其在大城市中,由于各种高大建筑物的阻拦,GPS多路径反射(Multi-Path)的问题会更加明显。这样得到的GPS定位信息很容易就有几十厘米甚至几米的误差。对于在有限宽度上高速行驶的汽车来说,这样的误差很有可能导致交通事故。因此必须要有GPS之外的手段来增强无人车定位的精度。

障碍物检测

众所周知,在机器视觉中一个比较难解决的问题就是判断物体的远近,基于单一摄像头所抓取的2D图像无法得到准确的距离信息。而基于多摄像头生成深度图的方法又需要很大的计算量,不能很好地满足无人车在实时性上的要求。另一个棘手的问题就是光学摄像头受光照条件的影响巨大,物体的识别准确度很不稳定。图4展示了光线不好的情况下图像特征匹配的问题:由于相机曝光不充分,左侧图中的特征点在右侧图中没有匹配成功。图5左侧展示了2D物体特征匹配成功的例子:啤酒瓶的模板可以在2D图像中成功识别。但是如果将镜头拉远,如图5右所示,我们只能识别出右侧的啤酒瓶只是附着在另一个3D物体的表面而已。2D物体由于维度缺失的问题很难在这个情境下做出正确的识别

results matching ""

    No results matching ""