当激光雷达即将上车时 我们该如何评价一款激光雷达?
新出行原创 · 精品文章

作为落地智能驾驶感知的“最后一块拼图”,激光雷达凭借远距离、全天候等性能将成为未来智能驾驶的核心传感器之一。从机载激光雷达向车载雷达跟进,激光雷达制造商需要重新设计与排布元件,达到量产装车的可能性。

我们在上一期内容为大家激光雷达的工作原理(传送门:迎来前装变革?解读激光雷达的宿命之争)。

而这一期我们将围绕激光雷达的产品特性,首先与其它传感器做类比,并结合其测距与定位应用以及当前激光雷达的车载性能表现,并最终对不同传感器之间的融合做思考,为大家较为全面介绍如何评价一款激光雷达。

一、激光雷达与其它传感器的对比思考:

上一期我们和大家聊到了激光雷达的工作原理、单线与多线激光雷达以及激光雷达的部分应用场景。

而对于激光雷达更为直观性能表现,我们可以进一步看看其与普通传感器的对比。

激光雷达、 毫米波雷达、超声波雷达都利用主动式发出波来完成对物体的监测、测距并进行数字分析,而摄像头则是基于环境感知,以此来采集数据以及记录分析环境信息等。

其中常见的雷达的测距方法上都采用了 TOF 飞行时间测距法,利用光的飞行时间来计算物体之间的距离,这个我们也在上一篇文章具体分享。但激光雷达相比毫米波、超声波雷达在波段上的差异也带来不同的场景表现。

1、测量精度与波段频率呈正相关。

例如毫米波雷达频率为 30-300GHz、超声波雷达频率通常为 20kHz- 58kHz,而激光雷达可达到 10 万 GHz以上。其中激光雷达的频率相比毫米波将高出 3-4 个量级。

超声波雷达由于受到传播速度限制,使得其仅适用于极短距离的探测,这也比较容易理解。

而毫米波当前大规模适用在中、短程雷达,在测距能力与测量范围上相对激光雷达会较弱,这也导致了毫米波自身存在对“物体”监测存在“盲区”。

最“致命”的是毫米波雷达自身对金属敏感以及对高度信息数据的缺失,这对算法与安全预判带来很大压力。

毫米波雷达常被忽略的是,雷达勘测上与物体放射特性相关,但其不涉及运动特性(滤波算法去除检测到的静止物体)。

毫米波可识别能力强,对速度的感知是基于多普勒效应来实现的,所有物体都能产生回波,所以在物体分类判别上很难精准化,只有去除杂波才能追踪物体。

缺乏高度信息也对障碍物等识别提出挑战。所以看到特别是针对静止物体、路牌以及行人等,毫米波雷达无法对物体产生正确制动决策,

这也是彼时部分开启辅助驾驶车辆无法识别高速路静止物体以及准确判断行人等的重要原因之一。

而激光雷达的波长可至纳米级,频率可达 10 万GHz以上,这也意味着激光雷达在距离、角度与运动测量上能有较高的分辨率。

相比摄像头则更为容易理解,车载摄像头受限于环境光的影响,包括在逆光、暗光、强光等影响。而在即时性与偶发性上显然不及激光雷达的抓取来的直接,同时也进一步降低算力以及训练的依赖性。

但未来多传感器并不是为“谁取代谁”的作用,反而是更进一步促进多传感器融合。

未来摄像头在红绿灯、车道线、行人以及车辆等检测上起到关键作用,而超声波在关键的近距离泊车等做主要作用,而毫米波雷达与超声波雷达则在远距离探测、多环境下的相互补充。

二、激光雷达的性能参数

当激光雷达即将上车时,我们需了解激光雷达那些基础性能参数呢?

1、线数与探测测距

当前主流的 32 线、64 线、128 线以及 300 线的激光雷达产品,其中线数指的是激光雷达在垂直方向的发射器与接收器的线数,多线激光雷达能够对纵向密度覆盖,物体表面轮廓描绘精度越高,能实现不同级别的清晰度表现能力。

我们可以理解为,高线数有更高的纵线角度分辨率,实现更高的清晰度,点云数量也会更为密集,由于机械式激光雷达由多个发射器和接收器组成,而当前主流的激光雷达都相对减少了机械式部件,以等效线数来对应过去机械式激光雷达的线数。

图达通图像级激光雷达显示效果。

而激光雷达的探测距离与目标的反射率相关。目标的反射率越高则测量的距离越远,目标的反射率越低则测量的距离越近。

当前是对于 10% 的低反射目标物与 90% 的高反射目标物做探测距离,目标探测能力越强其可预留的决策时间越长,并可进行更多的与判断。

根据预计,在 2022 年前后前装量产的主雷达在 10% 反射率下达到  150米 - 250 米探测距离。

目前部分激光雷达最长测距能超过 500 米。而探测距离一般是对于 10% 低反射率目标物的最远探测距离,探测距离越远能够对决策系统留下更长的反应时间。

例如在以相同 120km/h 速度计算,预留刹车的时间大概为 7s 左右,那么此时探测距离需要达到 200 米及以上,而探测距离越远能确保安全性。

2、视场角与角分辨率

激光雷达视场角分为水平视场角和垂直视场角,水平视场角即在水平方向上可以观测的角度范围,垂直视场角同理。

视场角越大也意味着激光雷达对空间的角度覆盖范围越广,而不同的视场角也适配不同的使用场景,这也是不同车企选择不同视场角激光雷达的原因,当然这影响着激光雷达上车的布局。

例如 D55 采用的是安置在于车前底部的左右两侧,蔚来 ET7、R 汽车的 ES33 则将主雷达布局在车辆顶部。

角分辨率则是判别分辨目标的能力,指的是两个探测点相邻的角度间隔,角分辨率越小则表明分辨的目标越小,点云数据也会越细腻。

正在加载 视频播放器。
当前时间 0:00
时长 0:00
加载完成: 0%
媒体流类型 直播
剩余时间 0:00
 
1x
  • 节目段落
  • 关闭描述, 选择
  • 关闭字幕, 选择
    5 个 Livox Horizo​​n 水平视场角为81.7°、垂直视场角为25.1°的FOV 动态展示。

    而我们在上一期为大家提及的点云密度,多线激光雷达从单线的线信息向面、体的三维点云图转变。通过训练点云特征对探测,可以对障碍物、道路、桥梁等特征和对象进行分类和提取,高清点云也利于构建感兴趣区域 ROI。

    3、激光波长

    而由此我们也引入了激光波长这个性能参数,目前市场上激光雷达最常用的波长是 905nm 和 1550 nm,波长越长,也就意味着探测距离与精度更强,而 1550 nm的激光波长不会造成视网膜损伤。

    例如在实际应用场景中,在某些极端场景应用下,1550nm 的波长可以在 70 公里/小时的时速下对应对 300 米开外的低反射物体,例如部分车企宣传的多少米范围内可识别的轮胎、行人、易拉罐等,在安全距离中拥有足够的变道时间与刹车距离。

    我们也可以看到评价一款激光雷达不止在于它能探测多远,而是要综合不同的性能参数以及不同、多个激光雷达布局做考量,而当前我们也需保持一定的理性。

    目前主流的车企都针对于自身的智能驾驶开发,应用匹配符合自身的激光雷达,以此来解决感知难题,而不在单只看中性能参数的高低。

    三、激光雷达的测距与定位

    而在了解性能之余,激光雷达又有哪些重要的使用场景呢?

    1、激光雷达测距

    激光雷达的测距发射模块有基于时间的测量方案以及利用光子与电信技术结合的物理信号解决。

    IToF 原理更为简单,将发射的正弦波与接收的正弦波之间的相位差。DToF 可直接根据脉冲发射和接收的时间差来测算距离,即直接探测,其也是苹果发布新款 Ipad pro 等产品而备受关注。

    其核心是采用了 SPAD 技术,dToF 将 IToF 的正弦波相位测量切换为光子测量,可直接测量光的飞行时间,在量程与精度上都具备优势,DToF 测量精度可以达到毫米级,测距时间、功耗、抗干扰也会增强,而由于光学元件很多都应用在商业领域,在成本上也比较可观。

    而另一种是不基于时间的测量方法的为调频连续波(FMCW)。脉冲式 dToF 通过发射一个窄的高功率激光脉冲,通过测量飞行时间来确认物体的距离。

    相比之下,FMCW 激光雷达提供低功率,并以光子与电信技术的结合来达到更高性能,这能够解决我们上述提到的毫米波存在的多普勒问题与金属灵明度,可以利用物理信号解决。

    脉冲式 dToF 对于 1550nm 的激光而言,决定其最大测量范围的信噪比是与峰值激光功率成正比,激光功率需要达到很高,对图像传感器压力也越大。反之 FMCW 激光雷达的信噪比与发射光子总数成正比,而不是与激光功率成正比,具备同信噪比的条件下实现较低的功率。

    这对散热性、芯片压力以及体积大小都带来非常有利。

    但 FMCW 激光雷达虽也能达到较高精度,但其采用的单次激光发射,缺点是并不能一次性测量径向与横向速度,横向场景包括这我们常见的加塞、变道、人行道行人等,如果需要记录横向速度则需要停留耗费时间,其整体系统难度与成本都相对较高。而 FMCW 解决方案受限于高性能元器件的成本问题,当前无法大批量量产。

    2、激光雷达定位

    激光雷达在初始状态应用下,对地图的创建是基于一个陌生环境的出发,激光雷达在创建地图中利用车型当下的自身位姿、以及特征在坐标系下的位姿,计算得出当前在该客观地图下的位姿,以此来用于地图的绘制或者更新地图,这也即是我们常说的激光 SLAM。

    而这同样也是起到一个逆向运行的定位作用。

    激光雷达是依靠将车辆的初始位置与高精地图信息进行比对来获得精确位置。其中 GPS、IMU 和轮速等传感器给出一个初始定位,并利用激光雷达的点云信息对特征进行捕捉匹配,结合初始位置获得全局坐标系下精准定位。

    例如当车辆所处位姿改变时,可以探测到绘制地图下所匹配的特征 A 点,而车辆可以根据该点在世界坐标系下的位姿和特征在车辆坐标系下的位姿做匹配,计算出当前车辆的定位。

    通过不断的比对实时扫描到的点云和已经建好的全局点云地图,可以持续性获得当前位置。

    以特斯拉为首的视觉 Visual SLAM(简称 VSLAM),则意为利用视觉对环境进行采集与记录,瞬时分析,不依靠预先录制的地图。在这凭借的是特斯拉的 Dojo 超级计算机,它首先解决的是视觉的平面图像信息到 4D 拥有深度的图像数据转变,另外特斯拉也利用大数据训练对物体标注、样本分类等做区分。

    四、当前 离我们最近的激光雷达车载落地会带来什么?

    而基于以上的性能对比,我们也进一步理解了激光雷达的重要性,而离我们最近的激光雷达应用会带来什么?

    摄像头受限于数据的采集与分类,而毫米波雷达对物体的监测与分类以及对行人等障碍物识别同样具局限性,而激光雷达自身独有的工作原理与特性使其成为智能驾驶中的“另一只眼”。

    我们以国内的主流车企为例。

    小鹏采用的大疆 Livox 的浩界 Horizon 车载方案,从之前的预告图可以看到其搭载在底部两侧,而蔚来 ET7 、上汽 R 汽车则采用了安装在车顶的方案,不同位置的安装对于探测、功能以及抗高温等耐久性等都做了不同权衡。

    小鹏对于激光雷达上车的考虑是基于 NGP 场景下的感知“补充”,当前还是以视觉为主、激光雷达为辅的方案。此前特斯拉识别大货车以及小鹏 NGP 的“失手”案例依旧是一个感知缺陷,对静止物体、障碍物凭借视觉采集与训练依旧存在挑战。

    而激光雷达可以进一步弥补毫米波雷达对于金属探测的敏感度以及精度,来弥补高度、行人等基础信息对物体进行精准预判。

    正在加载 视频播放器。
    当前时间 0:00
    时长 0:00
    加载完成: 0%
    媒体流类型 直播
    剩余时间 0:00
     
    1x
    • 节目段落
    • 关闭描述, 选择
    • 关闭字幕, 选择
      NGP下无法识别行人需要人为介入。

      例如 NGP 场景下对入过匝道、加塞处理、夜间行车、障碍物识别判断等,激光雷达进一步提高小鹏 NGP 的不同场景适用性,能够为决策层做更多基础信息传递,提高 NGP 的环境适应能力。

      我们也非常关注第三款车载激光雷达的车型,届时也会为大家做详细的测试。

      而蔚来基于 Innovusion 的 300 线的产品显然“野心”更大。

      拥有激光雷达的 NAD 方案,是蔚来从辅助驾驶到自动驾驶的关键一步。从感知算法、控制策略以及底层系统基于自研,感知上配合 11 个 800 万像素的高清摄像头,采用瞭望式布局,总共 33 个硬件组成的 NIO Aquil 蔚来超感系统。

      而其采用的 120 度超广角、0.06 度的纵向分辨率、最远探测 500 米以及 300 线等效分辨率的图达通激光雷达,能够实现点到点的自动驾驶场景。

      而由于其图像级的分辨率而称呼为图像级激光雷达,在远距离检测物体并聚焦在选定的物体上,而不会损失视野角度和清晰度,例如可以识别 120 米外的行人的 40 个点,同时在整个 110° 视场中保持高帧频和高分辨率进行定位、地图绘制以及在大雨环境夏对小物体的检测等。

      配合 800 万像素能够在夜间、强光等多元场景下实现强感知,而如果未来与图达通的 V2X 数据融合,能够实现更多可能。

      而于近期宣布的上汽 R 汽车的第三款车型 ES33 采用了 Luminar 的 Iris 激光雷达,并也同样安置在车顶处。从体积上看 Iris 非常小,集成度非常高,同样也能够达到图像级分辨率。

      其采用的是 1550nm 、最大探测距离500 米、10%分辨率下探测距离为 250 米以及拥有 120 ° 水平视场、30° 的垂直视场的高性能激光雷达。

      上汽则是配合 4D 毫米波雷达实现高速公路、动静态状态下的障碍识别以及恶劣天气的智能驾驶冗余等,雷达将会成为其重要的感知传感器。

      而在当前我们也看到高性能的激光雷达必须适配强大的芯片算力,前后分别有蔚来 ET7、智己、R 汽车 ES33 宣布搭载 1000+ TOPS 算力的自研平台,这对其中的架构上的范式都提出一定的要求。

      五、思考:多传感器未来是融合还是走向“分裂”?

      多传感器耦合是实现自动驾驶的必然,激光雷达也受制于激光的物理特性,但与其它传感器的融合也进一步适配不同环境的感知能力,而伴随着传感器的迭代,融合是否也会限制传感器本身的性能表现?亦或是带来“分裂”?

      当前从微观上看,也延伸出不同的融合方案。例如硬件层级的融合,也有数据上、车辆定位、场景识别的融合。当然这些也决定了激光雷达制造商与主机厂商直接的合作目的,未来如何走都有很多不确定性。

      利用视觉 slam 与激光雷达相互融合,也充分发挥了图像与点云的优势,实现互补。还有利用点云的深度等三维参数弥补视觉尺度,而视觉也可以弥补雷达在结构化环境下缺乏丰富的图像特征。

      但当前激光雷达的深度信息与图像信息融合难度较高,例如摄像头自身的稳定性与鲁棒性弱点,都需要攻克。

      目前激光雷达与摄像头的融合需要做大范围标定,利用二者的位置信息在图片信息与点云信息做融合,给予图像像素深度信息,而图像反给予点云色彩。

      而二者的融合也要克服时间戳的同步,来确保传感器捕捉信息的一致性。而另一种融合方案则是对二者的信息进行相互验证,提高决策的准确性。

      而我个人认为在未来的传感器发展中可能也逐步从分散式向集成化迈进,在互补性的同时也保留了各自传感器的性能表现。目前许多制造商也提出了纯激光雷达、一体式方案,例如 Mobileye 提出的纯激光雷达与纯视觉两个子系统方案,二者在内部状态下是独立工作,但会以组合式使用,做协同冗余。

      正在加载 视频播放器。
      当前时间 0:00
      时长 0:00
      加载完成: 0%
      媒体流类型 直播
      剩余时间 0:00
       
      1x
      • 节目段落
      • 关闭描述, 选择
      • 关闭字幕, 选择

        早期利用多传感器在时间、空间的校准融合再对环境进行识别,而在集成式多传感器融合中则可实现对环境的关联匹配与过滤,起到高效的“协同”作用。

        当前智能驾驶正在朝向另一个阶级迈入,目前国内主流车企都采用了激光雷达作为智能驾驶辅佐感知方案,而以激光雷达作为主要感知的方向尚远,在多传感器融合、成本以及技术性升级上还需要很长的路要走。但可以确定的是,作为智能驾驶的另一只眼,激光雷达正在为我们拓展更多的可能。

        而在过去传统汽车的穹顶之下,人类正上演一场蓄势待发的技术突围,智能驾驶的变革脚步正愈来愈近。

        写评论
        积分赞赏
        点赞
        评论区
        • 收藏
        • 举报
        回到顶部