型号 | Channel 数量 | 每秒产生点数 |
---|---|---|
Velodyne HDL-64E | 64 Channels | 2,200,000 |
Velodyne HDL-32E | 32 Channels | 700,000 |
Velodyne VLP-16 | 16 Channels | 300,000 |
http://robotglobe.org/e-stores/sensors/velodyne-lidar-inc/
Velodyne HDL-64E | ![]() |
---|---|
Channels | 64 |
Range | 100-120 m |
Accuracy | +/- 2cm |
Data | Distance / Intensity |
Data Rate | 1.3M pts/sec |
Vertical FOV | 26.8º |
Vertical Resolution | ~ 0.4º |
Horizontal FOV | 360º |
Horizontal Resolution | 5Hz: 0.08º10Hz: 0.17º20Hz: 0.35º |
Input Voltage | 10-32 VDC |
Power | 60W |
Environmental | IP67 |
Operating Temperature | -10º to 50º C |
Size | 203mm x 284mm (~8” x ~11”) |
Weight | 15kg (33lbs) |
32E | ![]() |
---|---|
Channels | 32 |
Range | 80-100 m |
Accuracy | +/- 2cm |
Data | Distance / Calibrated Reflectivities |
Data Rate | 700,000 pts/sec |
Vertical FOV | 40º |
Vertical Resolution | ~ 1.3º |
Horizontal FOV | 360º |
Horizontal Resolution | 5Hz: 0.08º10Hz: 0.17º20Hz: 0.35º |
Input Voltage | 9-32 VDC |
Power | 12W |
Environmental | IP67 |
Operating Temperature | -10º to 60º C |
Size | 86mm x 145mm (~3.6” x ~6”) |
Weight | 1kg (2.2lbs) |
VLP-16 | ![]() |
---|---|
Channels | 16 |
Range | 100 m |
Accuracy | +/- 3cm |
Data | Distance / Calibrated Reflectivities |
Data Rate | 300,000 pts/sec |
Vertical FOV | 30º |
Vertical Resolution | ~ 2.0º |
Horizontal FOV | 360º |
Horizontal Resolution | 5Hz: 0.1º10Hz: 0.2º20Hz: 0.4º |
Input Voltage | 9-32 VDC |
Power | 8W |
Environmental | IP67 |
Operating Temperature | -10º to 60º C |
Size | 104mm x 72mm (~4” x ~3”) |
Weight | 0.83kg (1.8lbs) |
计算性能挑战:计算量大
从表1可以看到,即使是16线的LiDAR每秒钟要处理的点也达到了30万。要保证无人车定位算法和障碍物检测算法的实时性,如此大量的数据处理是面临的一大挑战。例如,之前所说的LiDAR给出的原始数据只是反射物体的距离信息,需要对所有产生的点进行几何变换,将其转化为位置坐标,这其中至少涉及4次浮点运算和3次三角函数运算,而且点云在后期的处理中还有大量坐标系转换等更复杂的运算,这些都对计算资源 (CPU、GPU、FPGA) 提出了很大的需求。
高清地图的绘制
这里的高清地图不同于我们日常用到的导航地图。高清地图是由众多的点云拼接而成,主要用于无人车的精准定位。高清地图的绘制也是通过LiDAR完成的。安装LiDAR的地图数据采集车在想要绘制高清地图的路线上多次反复行驶并收集点云数据。后期经过人工标注,过滤一些点云图中的错误信息,例如由路上行驶的汽车和行人反射所形成的点,然后再对多次收集到的点云进行对齐拼接形成最终的高清地图。
基于点云的定位
首先介绍定位的重要性。很多人都有这样的疑问:如果有了精准的GPS,不就知道了当前的位置,还需要定位吗?其实不然。目前高精度的军用差分GPS在静态的时候确实可以在“理想”的环境下达到厘米级的精度。这里的“理想”环境是指大气中没有过多的悬浮介质而且测量时GPS有较强的接收信号。然而无人车是在复杂的动态环境中行驶,尤其在大城市中,由于各种高大建筑物的阻拦,GPS多路径反射(Multi-Path)的问题会更加明显。这样得到的GPS定位信息很容易就有几十厘米甚至几米的误差。对于在有限宽度上高速行驶的汽车来说,这样的误差很有可能导致交通事故。因此必须要有GPS之外的手段来增强无人车定位的精度。
障碍物检测
众所周知,在机器视觉中一个比较难解决的问题就是判断物体的远近,基于单一摄像头所抓取的2D图像无法得到准确的距离信息。而基于多摄像头生成深度图的方法又需要很大的计算量,不能很好地满足无人车在实时性上的要求。另一个棘手的问题就是光学摄像头受光照条件的影响巨大,物体的识别准确度很不稳定。图4展示了光线不好的情况下图像特征匹配的问题:由于相机曝光不充分,左侧图中的特征点在右侧图中没有匹配成功。图5左侧展示了2D物体特征匹配成功的例子:啤酒瓶的模板可以在2D图像中成功识别。但是如果将镜头拉远,如图5右所示,我们只能识别出右侧的啤酒瓶只是附着在另一个3D物体的表面而已。2D物体由于维度缺失的问题很难在这个情境下做出正确的识别