{{detailStore.author.is_follow?'已关注':'关注'}}
原创文章
管理
不仅只有实测!“堆料王”飞凡会如何做好辅助驾驶?
新出行原创 · 文章

这段时间我们体验了飞凡 R7 一个大的 OTA 版本,这个版本也会在接下来大范围推送给用户同学。

这次核心更新的内容是智能驾驶板块,在去年我们就和大家分享了飞凡高速 NOA 的体验以及 LCC 大横评,但实际上还在于产品初期以及小范围体验,而从这个大版本开始是有意的面向大众,同时是同步更新 LCC 以及高速领航两个核心功能。

为什么会称 R7 为“堆料王”,实际上 R7 从上市前开始就用了很多新的传感器,除了搭载 Orin 大算力芯片以及 800 万像素摄像头,还首发了采埃孚 PREMIUM 4D成像雷达、LUMINAR 激光雷达,抛开技术本身,这也是一套售价不便宜的硬件。

因为@铁皮 在接下来会用视频更详细解读飞凡 R7 整体智驾的表现,在文章中,我将会更侧重聊聊三个点:

  • 飞凡会如何思考智能驾驶?
  • 基于高规格的硬件,在软件上会如何思考?
  • 最后我们再回到功能体验上,看看软硬结合下,R7 的版本表现会怎么样?

一、飞凡会如何思考智能驾驶?

从研发角度上,目前飞凡无论是 R7 还是接下来的 F7 ,RISING PILOT、RISING OS 都是共享的。R7 的能力实际也代表了接下来的车型比如 F7 等的能力。

但如果我们细看飞凡 R7 车型的配置表,目前 R7 在智驾上会采用三种不同配置,包括基于 Mobileye Q4H 的基础硬件包、以及基于单颗 Orin 的 RISING PILOT 硬件包以及基于两颗 Orin 以及激光雷达的 RISING PILOT 高阶硬件包。

从命名看,Orin 平台都是隶属于飞凡目前自研的 RISING PILOT 方案,而基于 Mobileye Q4H 显然是采用过去常用的打包方案。

而针对多方案的策略,飞凡汽车用户发展中心总经理刘晨有一个解答:

提到目前智驾、智舱的瓶颈某种程度上会面临一个挑战,也就是不管用怎样的硬件方案,都必须告诉用户购买的硬件,最后在软件和场景价值上得到了哪些回馈。

无论是激光雷达,还是 4D 成像雷达,最后的成本都是用户承担。如果用户只需要 LCC 就够了,那他就没必要或者不愿意承担更高阶硬件的成本。所以,这就是策略的问题,核心还是在场景中根据每个品牌的硬件,包括产品的定义,打造出有区隔的场景体验价值。

二、基于高规格的硬件,在软件上会如何思考?

在软件算法上,飞凡提出了一套全融合算法,也就是基于前融合、后融合以及混合融合三种融合算法,这个算法在之前一段时间有和大家分享。

融合是通过算法把不同传感器所感知到的目标能够在一个坐标系下生成,这样系统可以消除不同传感器之间的“矛盾”,同时增加传感器之间的冗余,更为互补,同时确保系统的实时性。

其中后融合是利用不同传感器感知后的结果做融合,输出的结果已经成为最终目标,所以后融合也被称为决策级融合,后融合中央处理器就像是「法官」,各个传感器因为属性独立,即使存在感知差异或者错误也不会对结果有关联。

而前融合则是将不同传感器的原始信息就开始做融合,把多个传感器融合输出后便成了一个超级传感器,因为数据基本没有损失,所以融合结果会更为精准,但不同传感器不同的特性对计算能力、效率以及低延迟性带来很大的挑战。

飞凡提出的全融合也就是通过将前融合的感知结果后再与后融合的传感器输出的结果做融合。

对于飞凡采用视觉、毫米波、激光雷达基础上再加入 4D 毫米波等传感器而言,传感器的分工显得更为重要。

那飞凡具体会如何落地呢?

 飞凡智驾首席科学家金杰盂在此前做了相关分享。

目前飞凡采用的是多任务 Pixel Puint Cloud 网络,也就是将 12 个摄像头数据录入,将摄像头输出为 BEV 网络,这张网络图中,我们还看到了对时间序列以及历史帧的识别。可以实现动态感知人、车以及静态车道线、道路边缘等,包括我们这次体验的红绿灯等交通信息的识别。

从网络图可以看到,飞凡应用了目前主流的 BEV + Tranformer 大模型的网络结果,可以看到无论是视觉信息、毫米波雷达还是激光雷达都做了 BEV 融合与特征提取,在输入到大模型中,最后输出相对应的道路结构、动态物体、车道线、红绿灯等环境信息。

除了视觉感知,目前飞凡支持角雷达、激光雷达等传感器热插拔。其中 4D 毫米波对探测物质垂直高度的点云密度,比常规雷达更为精细,而飞凡同时也在 4D 点云的基础上加入时间序列算法。

加入这个算法的目的是为了增强对一些静止物体以及道路结构的感知能力,同和结合多个毫米波雷达的融合,能够对更远距离的探测。

在展示的一张图示中,可以看到 4D 毫米波通过时间序列算法能够排布出点云信息,比如绿色空间为可通行空间、白色为道路边缘信息、红色为不可通行区等。

而激光雷达的表现上,飞凡也展示了对激光雷达颜色的划分,例如红色为道路信息、深蓝色为道路边缘信息、青色为树干、绿色为树叶等。

金杰盂提到目前这么做的目的是为了减少对地图的依赖,能够通过激光雷达点云实现车辆周围局部环境构图的分析。通过“看懂”车辆周围的环境,将数据转换成一个完整的环境拓扑结构。

三、RISING PILOT 表现会怎么样?

聊了关于软硬件,我们看看 RISING PILOT 的第一阶段能力表现如何。

首先是上次和大家聊到的环境模型显示。

虽然目前环境模型显示仅是一个交互显示的作用,但实际上它能反应整个系统的感知能力。

在前面我们提到,目前 RISING PILOT 基于 BEV + Transformer 大模型结构,那它目前输出的结果怎么样呢?

视频上传成功

环境模型显示

从显示中可以看到,系统对道路上静态车道线、边缘线、红绿灯以及动态的车辆、行人等的识别,其中车辆与行人识别较为稳定,数量识别也非常丰富,基本所见即所得。

而对车道线的识别上,目前初期阶段在针对大曲率弯道、快速变化的车道线以及远端的车道线系统更新会略为不及时。

在目前大家较为关注的 LCC 以及高速领航辅助驾驶的功能上。

视频上传成功

LCC 部分场景显示

在几个代表性场景中,例如通过无标线十字路口、错位车道、超宽车道等场景,虽然目前感知对于车道识别较为准确,虽然在部分快速变化车道上识别不及时,但在基础的路口车道丢失、大曲率弯道以及变宽车道等场景中车辆控制表现不错。

视频上传成功

高速领航辅助驾驶场景展示

而在高速领航辅助驾驶中,虽然此次体验的路段较为简单,但结合地图后系统通过的策略、并入匝道的实际以及出匝道后汇入主路的策略都较为完善,目前系统会在 1.8 公里左右提前变道进入匝道。

但目前系统对于高精地图的覆盖率还没有完善,我们也会继续留意后续系统优化后的能力表现。

作为第一阶段的能力,可以看到 RISING PILOT  的基础感知能力具备明显优势,特别是环境现实中的道路信息、交通信息、行人以及车辆信息等。

背靠硬件与算法的融合,后起的飞凡也有追赶之势,同时在底层能力上也都在为着未来的无图化作准备。

而在基础 LCC 以及高速领航辅助驾驶中,现阶段 RISING PILOT 的基础能力例如通过路口、大曲率弯道、加塞等场景表现较好,但高速领航针对高精地图的覆盖完善度还需要提高,我们也期待后续优化的表现。

写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧