文章 智能驾驶从「春秋」步入「战国」时代?看四家技术代表如何演绎“百家争鸣”!

飞机先生
2021-09-13 新出行原创

在智能化变革时代中我们看浪涛滚滚,未能平息。

显然这场被赋予「机器觉醒」的变革,如春秋步入战国时期,正值秦统一中原前各国百家争鸣、广纳百家的鼎盛时期。

前者有特斯拉技术路线为首的视觉路线,在视觉技术中「沉默」几年后开始迎来新的变革。

而国内为代表兴起的智能驾驶路线也在近几年逐步锁定,多传感器融合与高精地图方案正奋力追赶。

我们这一次就从四家特斯拉、小鹏、理想和蔚来汽车出发,一起讨论各家的技术演进、路线差异化。

篇幅较长,为大家做了一个小目录供大家参考:

一、看当前格局:从一家独大到百家争鸣

在这之前曾和大家分享了一个理论,也就是在视觉感知(检测)上,目前通过大量数据的积累,例如众包、训练等来实现「机器视觉从感知上超过人类」的路线是非常清晰。

但完全凭借单纯的感知技术路线要达到完全接近人类的无人驾驶仍旧遥不可及

这里是因为:

单纯的数据驱动必定会存在视觉系统“崩溃”(出现漏检、误检等)几率(例如我们看到最近频发的识别静止物体等事故),所以当前的目标是通过降低长尾场景(corner case)发生的概率,最终超过人类驾驶。

1、 三架马车

如何让机器真正能够“跑起来”,也就是在机器认知的学习中,我总结为三架马车:

首先需要建立一套高效的系统「算法」,再利用 「算力」 不断捕捉、利用 「数据驱动」 ,最终目的是让每一台车都具备学习的能力(路上有一百台车就有一百台车学习的能力)。

而这反射到车企的技术方案中,也就是要有一个好的「地基」(计算平台)、在这上面建造自己的「房子」(架构),一个「硬装」(算力)、一个「软装」(自己的软件算法),利用车队与用户「数据」不断驱动运转。

这也就是我们今天的主题。

2、 一大难题

但现阶段行业内出现一个共同存在的“难题”。

也就是深度学习现阶段如同一个“黑盒”(大家可以看看我们之前深度学习的观点: 高算力(TOPS)到来之前 我们该思考什么? ),机器学习并不知道学习背后的逻辑与知识,而是凭借权重比来做猜测,这就给自动驾驶的学习带来“不确定性”。

对于在未给机器赋予认知的能力前,例如人类的逻辑推理、举一反三的能力,系统也就缺乏了可靠性与实用性

3、 两大路线

当前主要有两种技术路线:

第一个是 Robotaxi 无人车代表队。它们利用带有多种高端传感器的自测车以及高阶算法,在「特定区域内」进行商业化运行,对各类场景做「针对性」的收集与仿真训练。

另一个是作为车企代表队。它们自带大规模车队,用户在各大开放道路中跑,但存在的难题是对场景数据量级太大、收集难度高,存在大量重叠场景。

所以在例如类似标注、大量长尾场景的收集中,就需要有好的指令触发收集。「让机器知道我要收集哪些场景、接着如何做好解决」。

而四大车企路线的发展到今天也有新的“分歧”,回望这几年,市场也从特斯拉一家独大的技术之争演进到上演百家争鸣。

二、 特斯拉: 在无人区中创新 、 再创新 ...

首先是特斯拉为代表的视觉路线,其认为自动驾驶的发展和人类开车的逻辑类似,视觉能从一而终扮演一个主要角色。

马斯克坚信利用摄像头来提取周遭的环境信息,在视觉计算处理后,系统经过深度学习模型来自我训练,以此呈现出一个渐进式的全场景认知能力,包括目标物的感知识别能力、地图构建、目标物的预测等。

基于这个思路,特斯拉是如何演进的呢?

特斯拉必须依赖神经网络算法来解决来自摄像头的所有数据,首先我们看看特斯拉视觉路线最为复杂的神经网络。

1、确认视觉路线: 从单相机走向多相机融合

(1) 单相机方案

起初 HW1 主要围绕了 Mobileye EyeQ3 以及一颗英伟达 Tegra 3,采用了单相机方案,也就是一颗前置摄像头、一颗前置毫米波雷达以及 12 个超声波雷达。

单相机的方案其实和目前我们看到的 ACC+LCC 这样的基础功能相类似。

所以在 Andrej Karpathy 加入之前,特斯拉在 AI 技术并不惊艳。通过利用单摄像头、单帧对多任务模型处理,例如图像识别、跟踪、语义分割等,神经网络也并不复杂。

(1)多相机、单帧方案

在 2016 年时特斯拉因为 Mobileye  的低算力、封闭性后与其分道扬镳,并且也确定了基于 8 摄像头融合的视觉方案,也就开启了 FSD 的演进之路。

而在这过程中特斯拉发现虽然利用 8 个跨相机融合,但问题依旧没法解决。因为这 8 个摄像头其实是「单摄像头」、「单帧」“各自作战”,无法连续输出:

问题一:首先是检测与预测不稳定。

例如一辆车在我们身边经过,那么它可能一次性穿越八个摄像头中的其中五个,不同角度的摄像头这时候系统该听哪个摄像头的呢?这让系统无法对车辆做好的预测(例如它往哪里走、对我有无影响)。

而如果车辆穿过不同摄像头边界时还会出现检测不稳定、卡顿的现象。

问题二:跨相机融合的图像无法输出连续图像

跨镜头融合的图像空间实际上跑起来不是一个可用的空间。

单帧的难点就在于我们只知道看到当前的东西是什么,但无法生成连续图像,也就是无法知道所见物体的「来龙去脉」。这就有点像泊车时的第一次建模地图,它只能渲染出当前附近的环境信息,但没有大量高精度信息和深度信息,拿来开放道路并不好用。

而这些难题,就是特斯拉接下来需要解决的。

(3) 多相机、多帧 方案 ( 当前方案 )

在这个阶段特斯拉则做了一个新的解决方式,既然 8 个摄像头那么多意见,为何要和多个摄像头过不去呢?

那倒不如把这么「多摄像头」融合成「一个超级摄像头」,然后再统一输入给神经网路。

这就是特斯拉当前神经网络的技术脉络:通过主干来分配任务、再消化多个任务。

解决的方法是先把多个摄像头来的图像信息先融合起来,再把它输入给神经网络,然后直接输入给具有三维的矢量空间里。( 特斯拉称其为多任务神经网络 HydraNet )。

那每时每刻这么多数据处理势必存在压力,所以在推向给系统前,这些图像会首先被“肢解”。

在整个结构中我们看到图像先送往 RegNet,这个网络就是一个深度学习网络,这个网络的任务处理比较有意思:

它就像一个金字塔,底部是专门对高分辨率信息的提取,需要确认图像中有哪些细节点,例如哪些是人、哪些是车、车道线等诸类问题。

筛选后在给下一层,以此类推直达到顶层就会生成一个低分辨率的图像,满是信息点。

最后通过 BiFPN、Transformer 以后就是把这些“超浓缩”的信息更加具体化,例如这辆车在哪里、速度是多少、在哪个位置等等然后呈现在 Vevtor Space(3D环境感知)。

所以我们可以看到特斯拉整个结构是一个主干,然后把这些“超浓缩”的特征信息加上了时间和空间信息,再划分成多个分支、多个任务(例如任务一是信号灯检测、任务二是车道线检测...等等)。

但这样的问题还只是解决了一半,我们之前提到的「单帧」带来的问题,也就是无法连续输出的问题还没有解决。

因为我们不知道这个物体存在的前因后果(它上一刻在哪里、下一刻会到哪里去),也就是路上突然出现一个人、一台车、一个道路标识我们都不知道它为什么出现、要去哪里、代表什么意思。这就是特斯拉为什么说「lack of memory」。

解决问题的根本是要添加一个时空概念,让系统记录这个目标物的“前后信息”。例如我们可以每隔一段时间将缓存的信息发回,利用视频单元,这样通过计算我们就知道每一帧物体是怎么运动的、周围环境发生哪些变化。

每个目标物前面的引导线就是系统对其预测的路线。

这就是「feature queue(特征队列)」和「video module(视频单元)」两大新增模块的重要存在意义。

这时候全新的神经网络结构就诞生了:

所以我们除了知道路上的车辆信息还有深度信息,解决单帧信息后还能带来两个重要的好处:

  • 一个是「我们知道了目标物移动的信息」,也就是我们有记忆了,能够连续追踪物体做预测,也利于下游的规划和控制。
  • 另一个是我们对环境理解后方便「建图」与「定位」,例如利用多车、多环境完成车队建图。

至此特斯拉的神经网络有了一个全新的结构。

2、 开启软件算法迭代 : 数据驱动、 众包建图与场景训练

拥有了一整个神经网络就是我们提到的框架,就像我们搭建好了一个房子框架。

而设计好一套高性能的神经网络没有好的数据跑,就如同我们建了一套房子没人住、建了一条高速没车跑一个道理,所以此时数据与训练就像血液一样让整个机器有了“灵魂”、“生命”。

(1)数据标注

要让数据在框架上跑,首先要给每个数据“分队列”,做好标记。

现阶段大部分全栈自研的车企都拥有自己的数据标注团队,这里考验的是:

在大家都有数据的情况下,如何提高数据标注效率、给数据标注时更多维度的信息,成为核心竞争。

这里顺带提一下,特斯拉在 AI Day 现场“吐槽”了原先的合作商,因为关键的数据集掌握在第三方手里,合作上也不及时跟进,现场吐槽“数据质量也不怎么样”。

其实关键的一点是无论技术路线如何演进,数据还是特别值钱的。

某互联网公司的数据采集与标注服务。

这些数据可以来自自测车、用户车辆,还有视频、GPS、IMU、里程计等等。在人工标注上特斯拉目前有规模超过 1000 人的标注团队,对车辆、行人、雪糕筒、道路标线等做标注。

当然除了人工标注,在自动标注上也在不断优化。

甚至特斯拉还因为数据标注上重新设计一整套架构,在新架构中加入 4D 数据标注。

过去的标注是基于 2D 图像,所以在加入的 4D 数据标注中,我们看到我们熟悉的 3D 维度,同时再加入一个时间维度。

这样做的意义是当加入时间维度后,系统就能够检测到正在移动的动态物体,能够计算物体的方向与速度,以此来提供一个预测信息。

例如在下一秒钟物体会朝着哪个方向移动、速度是多少、是否会阻碍我们的路线等等,以此来分配给下游的规划与控制更准确的信息,这就是我们在神经网络部分所提到的。

我们这里可以看到,特斯拉 AP 软件的重写是基于底层代码以及重构神经网络,这也进一步验证了特斯拉“发现视觉存在的局限,再解决局限这样的逻辑。”

(2)众包地图

显然利用神经网络框架与数据一起融合进来有很多可塑空间,例如利用车队众包地图。

这也是特斯拉第一次正面公开、详细介绍了自己的地图信息。

我们知道特斯拉一开始的神经网络在利用多摄像机、单帧做跨镜头的融合,每个镜头输出的空间信息不够。

那在加入时间帧组成一整个视频单元后,我们就能追踪物体的连续运动状态。

例如在同一个路口处,我们可以让多个车在这里跑就能收集到道路信息,就算收集的场景有车辆遮挡,系统也会自动识别,让其它车辆补充数据。

而这样对于地图数据更新来说也大有好处。

有异于我们利用第三方车队的高精地图,多传感器方案与高精地图相互“依赖”,高精地图的更新除了车队以外,还需要有专门的地图车来更新。

特斯拉这样的好处在它不需要激光雷达的点云信息,而是需要道路中的车道、路标、行人道等基础信息,更新以及完善也较为方便。

另外地图数据的存储与使用也可以在线下做标注,来赋予更多信息,自行维护自行采集,当然它也是很“省钱”的。

(3)系统训练

那么这么多车队再跑,如何找到这些数据、还不重复呢?然后完成训练呢?

这样的场景其实并不难找,并且有很多。最简单的当我们捕捉到一个我们从未见过的场景或者需要驾驶者接管的场景。

那么特斯拉只需要设定一个触发器,向车队发动「收集指令」,只要触发到触发器的内容那么系统就会自动收集视频数据进行自动标注(部分人工)、训练、验证,循环多次,在拥有大量的数据体量后神经网络会变得越来越好。

例如我们进、出隧道口时遇见的强光场景非常难解决,那么这时候就需要做触发器,那么这样就能提高捕捉这类场景,接着进行大范围的解决优化。

而这样的技术路线拓展依旧充满许多可能,例如对于各个国家地区的特殊场景,包括针对马等一类动物的感知识别、对雨天、雪天以及雾霾等恶劣天气的数据训练等。

3、 硬件步入自研

(1)芯片走向自研:

起初 HW1主要围绕了 Mobileye EyeQ3 以及一颗英伟达 Tegra 3,与 Mobileye 分道扬镳后牵手英伟达。

特斯拉虽然牵手英伟达,但背后也同时“密谋”了芯片的研发。

和目前的“芯片之争的环境不同,彼时2016年智能驾驶的车规级芯片以及高算力需求不大、成熟度不高。伴随着利用8个摄像头以及机器学习的演进,特斯拉对于神经网络芯片的需求在于“精”,而英伟达用于智能驾驶的能效比并不高。

感知模块需要实时对目标物做实时检测和跟踪,特别是深度学习的迭代中多个神经网络合并为单一的计算,也就是成百上千的神经网络需要同时计算,这对原先例如通用型芯片来说,具备挑战。

相比通用的 CPU 或者 GPU,特斯拉需要专门基于神经网络设计的芯片,即能满足高性能计算也能带来低功耗等优势,另外在内部芯片上部署了训练的神经系统,而在这基础上带来的算力也能够满足未来复杂的算法迭代、摄像头升级的需求。

(2)Dojo 超算

如何提高整个神经网络的训练性能、降低功耗以及成本,对于特斯拉而言自研依旧是一个好的方向。

卷积计算和计算平台之间也有一个桥梁,两者的算力兼容度直接影响了计算机性能,这也是大部分公司要定制或者自研计算平台的原因。

对于特斯拉而言,如此庞大的运算更不用说。而这其中要解决的是带宽与延迟性。

当前最新进展是特斯拉自研了 Dojo 训练芯片 D1,可组合成 50 万个训练节点连接,并且有了训练模块独立运行,系统理论上可以做无上限的链接。

目前公开的是一台集成 120个训练模块、3000 颗 D1 芯片的模型 ExaPOD,BF16/CFP8 算力为 1.1EFLOPS,这也是当前最快的 AI 训练计算机。

4、 总结

从神经网络架构、手动标注的软件工具、再到仿真系统,还有AP 软件的重写、砍掉毫米波等,都证明了数据驱动与神经网络驱动对于特斯拉的重要性。

而在数据上,我们看到其收集场景的范围覆盖的更广(理论是全球范围的用户车队),包括地图数据、长尾场景等,而数据标注处理等也更为完善,其实这也进一步反馈在硬件自研这一优势中,所以它可以说是一项自驱动的全自研。   

关于这场技术的迭代还在继续,只不过特斯拉在视觉方案路线中自带神秘色彩与魅力。

伴随着 FSD 9.0 版本的到来,我们看这条视觉方案带来许多技术演进。而从确认视觉路线后,神经网络性能、数据驱动、Dojo 超级计算机、HW 4.0 自动驾驶芯片以及背后的高效团队,这样的循环进化还在持续进行着...

三 、 小鹏: 高精地图不是作弊 在渐进式自研中稳步向前

我们以特斯拉为例详述了智能驾驶演进的重要板块,四个品牌虽然在技术路径上略有不同,但演进的思路是相类似的,例如搭建框架、解决感知、地图、预测以及规划等难题。

有异于神经网络的复杂性,多传感器就显然轻松许多。利用多传感器来眼观六路、耳听八方,针对国内复杂道路场景也能更快速落地。

由于市场有了新的变化,当前国内的技术路线还是采用了高精地图的适配方案,并且我们还看到了融入了激光雷达在内的多传感器融合的技术路线,要“快求稳”。

为什么说小鹏的技术路线强调的是渐进式呢?我尝试分为两部分展开:

1、 三大起步根基 : 确定架构 、做全栈自研算法,针对中国场景 。

从小鹏汽车诞生开始,小鹏在国内的定位颇具清晰,小鹏正瞄准了智能化方向的年轻群体。

而要做国内的智能驾驶,除了要让系统跑起来,还要适应国内特殊的道路环境。

这也就是我们现在看到的小鹏和特斯拉类似,同样也采用一套覆盖 360 度的视觉方案,但小鹏并没有潜心在纯视觉网络的研究,而是采用了毫米波雷达、超声波雷达以及包括当前的激光雷达在内的多传感器融合方案。

主要想解决了国内大部分例如拥堵、横穿加塞、模糊标线等极端环境。

和特斯拉区别的是,小鹏并没有激进式的和特斯拉一样选择自建地基(自研芯片),而是自己设计了整个房子的架构(算法全栈自研)后找了一家第三方。

因为这时候的芯片市场开始发生了变化。

以英伟达、高通、Mobileye、地平线、黑芝麻等国内外芯片开始发力车规级智能驾驶芯片,针对智能驾驶芯片定位更加精确,而对于现阶段的竞争而言,自研芯片的路子充满风险,除了是一笔大投资,同时也有可能因为走错路线而被市场淘汰的风险。

而在此时掌握全栈算法的重要性就变得无可厚非 。 由车企自己掌握架构和软件算法 ,找“开发商买地基” ,也方便迁移 、 甚至重写 。

这也是近几年小鹏的 Xpilot 保持优势以及稳定发展的一个重要基础。

在 2.5 系统中同样处于过渡期,小鹏感知系统采用的是来自博世方案,辅助驾驶芯片是来自英飞凌,其余控制器基于自行研发。小鹏在此时主要积累大量的国内场景,例如加塞、大货车并行、驾驶者的习惯等等。

而 3.0 系统中小鹏的过渡并不被动,小鹏方向明确,Xavier、高精地图、高精定位等的加入也以此解决感知与定位精度,也为后续的训练、泊车以及高速、城市 NGP 奠定雏形。

2、 三大技术演进 : 高速、泊车与城区三大体系的渐进迭代。

第一部分我们看到了小鹏搭载建好架构、算法与数据平台,在成长板块中小鹏思考了高速、泊车与城区三大体系的构建,也是功能落地的基础。

 3.0 系统中我们看到了小鹏前后释放出了高速NGP、停车场记忆泊车等基础功能以及部分针对性的场景优化,当然这个优化还在继续。

全栈自研反应在小鹏的开发中有几种优势,我同时把它划分为上、下两部分有助于大家理解。

(1) 感知是开启智能驾驶的第一道钥匙

首先第一部分我们解需要解决摄像头、毫米波雷达接入的信号,并把信号输入到感知模块,利用计算精准判断周围有什么物体(例如有车、有人、有十字路口等),还要有这个物体的类别例如(例如数量、大小、类别、速度以及朝向等)。

而这些基础检测,伴随着智能驾驶需求的增长,感知信息也需要升级。

这时候全栈自研的优势逐步发挥出来。与特斯拉类似,360 度摄像头的感知架构对于目标物的 3D 信息、跟踪、位姿甚至预测要做稳定检测。

而在训练中也可以持续针对国内的特殊场景(包括长尾场景)做优化,例如复杂的十字路口、各种红绿灯的造型、车道线丢失后需要增强甑别、车尾灯信号识别等。

视频上传成功

从 P5 体验来看,车道线检测、无标线十字路口等国内特征道路,小鹏优化上已经有明显优势。

至此,我们就完成了基础 L2 的构建,也基本是小鹏 3.0 架构的根本。

(2) 规划和控制才能让智能驾驶真正“动起来”

下半部分:有了感知基础,我们下半部分就要把感知信息进一步输入到预测模块,结合高精地图作行为预测与规划。

感知结果和预测结果会同步输入到规划模块,例如路线等规划,然后再到控制模块。

这样的步骤需要在极低的延迟下完成,这对算法效率提出了很高的要求,并且对于城市、高速还是泊车环境中处理的逻辑方式也不同。

我们可以看到:

在记忆泊车系统中,小鹏利用现有的架构在没有 GPS 信号、高精地图下,利用语义地图、视觉匹配定位解决泊车难题。

而在地库中我们看到有许多例如鬼探头、行人横穿、路口、静止车辆等等场景,那么车辆需要做好预测以外还需要做好是否刹车等待、避让或者绕行的规划。

而高速 NGP 显然也同理。在高速环境下需要对更早探测目标物,在变道前需要对相邻车道或者自车道前方车辆等做预测、对慢速车辆、进出匝道口等场景做好规划。

伴随着 3.5 系统以及激光雷达的加入,城市 NGP 也即将到来,城市更为复杂的场景包括行人、外卖小哥、加塞等复杂场景挑战能读也更大。

针对国内更多特殊场景、整一个全栈自研的链路开始真正跑起来。3.5 系统少不了 3.0 系统的基础搭建,同理 4.0 系统也需要 3.5 跑起来才能持续渐进优化。

3、地图数据的采集

下半场,除了数据与算法的演进,对于多传感器与高精地图的技术而言,也需要面对城市高精地图开放性与采集的难题。

XPILOT 3.5 的城市 NGP 还是利用传感器融合高精地图来实现高精定位,但从现阶段看城区内高精地图覆盖率相比高速、快速道路要低不少。

小鹏为首家搭载高德第三代车载导航的企业。

而下半场,城区成为更高阶智能驾驶的竞争高地,地图显然是另一个重要维度。

小鹏收购了具备甲级测绘资质「智途科技」的消息不胫而走,这也是当前新势力车企中第一家拥有甲级测绘资质的车企,引起了外界的猜测。

能够在城区落地具备领航驾驶能力或者自动驾驶能力的,大部分都为 Robotaxi 无人车公司以及在测试道路中的部分准量产车型。

而在框起来的部分范围下,也就是我们所说的 ODD 下,通过自测车队完成地图的采集、更新是可能的,相反想要实现全国城区的所有开放道路的覆盖短时间内不切实际。

从目前看利用视觉这种低成本方案进行规模化部署、以众包的方式进行更新是目前主流的思路。

相信小鹏 XPILOT 3.5 后开始重视在地图的采集,而地图的采集前,资质是最基础一道入门槛。

4、总结

其实从这里我们看到小鹏技术演进的思路和特斯拉类似,先搭建框架、优化框架来解决感知难题(纯视觉方案与多传感器融合方案),接着进一步优化下游的规划、控制与地图算法。

在这基础上通过数据训练来针对性解决问题,前者更注重大范围内场景,后者更为注重国内特色场景。

只不过对于小鹏而言视觉是基础,但对于特斯拉而言视觉将会是整个技术的命脉。

而在颇具争议的地图问题上,两者实际上都采用了高精地图,只不过二者因为技术观念不同对高精地图的质量、供应与更新方式也有不同。

可预见的是,小鹏在计算平台的演进、传感器的优化上也在持续不断的演进,而从架构、算法以及软件自研的优势也在国内不断有序、渐进式呈现出来。

关于应对国内特殊场景的挑战,也伴随着城市 NGP 的到来更具色彩。

四 、蔚来的“大冒险” :跃进式的发展充满期待   当然也具风险  

如果说特斯拉和小鹏属于国内外的两个激进派代表,那么对于蔚来和我们接下来要讨论的理想而言,则属于保守派。

当然对于曾历经生死的蔚来而言,甘愿一直“保守”吗?我们往下看。

NIO Pilot 自动驾驶计算平台目前公布的有两个平台,那我们就分为 NT1.0 以及 NT2.0 两个部分讲,更助于大家理解。

1、 蔚来的求稳时代 : NT 1.0

NT1.0 也是由一块 Mobileye- EyeQ4 以及 恩智浦-S32V 芯片集成,前者主要用于视觉感知处理,后者用于决策计算,这样的方案其实与彼时特斯拉、小鹏和 Mobileye 合作的方式类同。

大家肯定好奇为什么初期都是采用这样的合作模式?我们这里做一个补充。

其实是传统的合作形式大部分是依赖 Tier1 做集成,直接打包采用。

 Tier 1 对感知系统做集成(市场成熟),包括感知算法等。而下游的规划、控制等决策模块则由车企自研,当然控制器也会交给第三方生产。

在 Mobileye 感知架构下,蔚来并没有与特斯拉一样急于求变、和小鹏一样大扩疆土自研。反而是把更多的精力放在了只针对下游算法的研发,从基础的 L2 到领航辅助驾驶与泊车系统两大方向发力。

例如 NIO Pilot自动辅助驾驶下蔚来也相应升级了 NOP、视觉融合自动泊车等。

而这样的路线在实际后续的体验中出现“端倪”。

从用户体验上看,我们发现NIO Pilot 例如在不跟车时通过红绿灯十字路口、混乱标线以及大曲率弯道时都会出现车道居中退出、无法识别、退出系统等。另外在雨天、夜间光线不太好的时候,NIO Pilot对于车道线的识别能力也会打折扣。

而蔚来基于高精地图的 NOP 体验中相比特斯拉 NOA 以及小鹏高速 NGP 上也有一定的差距,例如在感知、高静地图以及变道的规划与控制逻辑上都出现延迟、“我做不到”的结果。

虽然我们看到基于 NT1.0 平台下的 NIO Pilot 在目前看依旧还在优化渐进中,但不可避免的问题是此时蔚来的更新迭代的效率以及自研板块的掌握已经逐步丢失优势。

显然在 NT1.0 平台下,蔚来需要作出改变。

摆在蔚来当前的有两个方向,一个是换一家供应商提供新的算法方案继续埋头干,另一个方案是建立起一套新的架构,自己干。

显然蔚来选择了后者。

2、 蔚来的跃进时代 :NT2.0  

一位业内原本神秘的感知算法“侠客”的加入打破了原有的平静。

这个人便是任少卿。

Momenta 本身是一家提供视觉感知算法、数据驱动、高精地图等在内的面相 L2/L3 以及 L4 方案的的出行公司。

这无疑释放了一个新的信号。作为 Momenta 原研发总监的任少卿势,必要带队挺进蔚来感知、定位等算法研发。

我们又回归到最基础的架构的问题,作为后来者,前者有特斯拉、小鹏的车企的追赶,蔚来在新的架构便大胆押注。

蔚来在 NT2.0 平台上蔚来构建了 NAD 智能驾驶系统,采用了由 4 颗英伟达 Orin 构成的 NIO Adam 计算平台, 其中除了 2 颗主控芯片,其余 1 颗作为冗余、1 颗作为训练以及群体智能专用芯片。

在这基础上还搭配了Aquila 超感平台,包括 800 万摄像头、激光雷达、毫米波、超声波雷达、定位等在内的 33 个传感器。

其中激光雷达采用的是图达通混合固态激光雷达,最远有 500 米的探测距离,并且也首次将传感器布局车顶, 带来更好的视野。

另外在付费模式上,NAD 系统采用的是全系标配,软件采用订阅方式。

与小鹏当前架构不同的是,NAD 的跨越是直接面对更为高阶的智能驾驶,而小鹏的渐进式路线不同,也就是在到达更高阶时小鹏也必须还要推出一个新的平台(面向L4)。

所以从长远上看 NAD 平台可迭代的周期更远,同理用户可使用的周期也会更长。

但这里也有一个大家所忽略的点,硬件背后的软件算法也需要和硬件的演进协同,否则功能也会跑不起来,遵循开发产品的节奏看,一套新的完整智能驾驶系统的开发短则两年、长则 5 年不止。

另外蔚来所采用的计算平台、激光雷达等目前来看无论是方案大部分是高性能、首发。所以实际上上车后的稳定性、应用也需要磨合的时间,这也是具风险的。

3、 总结

相比特斯拉与小鹏走过“踩坑”、“避坑”的阶段,蔚来则走出了一条不一样的道路,蔚来把多传感器融合的道路走到底,通过硬件先行,把地基打得更深入、框架搭的更为严实、功能性也更为丰富。

显然蔚来在技术演进的道路中,从稳健步入跨越,这样的变化赋有惊喜,同时也充满新的挑战。

五 、 理想的不急不躁 : “ 专业的事交给专业的人 ,我只管用户体验”

1、 理想的不急不躁

同理。理想也和蔚来的 “1.0”时代类同,一开始也采取了 Mobileye EyeQ4 芯片作为视觉感知芯片,没有过早涉及全栈开发。

但这里有一点不同,早前北京车和家司先后投资了两家自动驾驶系统研发公司,一家为易航智能、另一家为知行科技。

与蔚来不同的是,理想把感知交给了 Mobileye,把下游的规划和控制交给了易航智能。当然由于作为投资方,双方共同协作完成了整个辅助驾驶系统的开发以及后期的更新上。

后面的故事我们也知道, Mobileye 本身的封闭式的合作模式,对于理想注重用户体验需要高效完成开发而言,实力演绎“有力使不上劲”。

理想起初有着这样的思考。作为单车单打的理想,理想 ONE 初期的定位确实不能走“偏科”的路线,对于理想而言,首款车型要做的是打下基础、各项稳打稳扎、而不是大冒风险。

除了软件算法“偏科”,其实 2020 理想 ONE 在硬件上的布局也稍有欠缺,对侧后方来车没有毫米波雷达以及用于 ADAS 的摄像头,变道时需要驾驶者自己观察路况。

另外单目摄像头的视场角为 52°,对于光线较弱的情况下感知能力较差,并且遇到加塞等场景时识别较晚,并且会触发系统退出。

当然我们也看到理想one在辅助驾驶硬件上也有所“保留”,除了行车记录仪以外,位于前挡的共有两颗摄像头,其中一颗用于 ADAS ,另外一颗则用于收集道路信息以及驾驶场景。

这里值得一提的是,这两颗镜头都分别用了 Mobileye 的芯片,并且还不是用同一套系统, 也就是需要单独拉一路来处理。

2 、 理想的反击

那理想是否会采用特斯拉摊牌式的纯视觉路线?还是小鹏的全栈自研?还是蔚来的 NAD 式跨越式路线呢?

都不是。

理想的定位其实还是和当初相同,在保持竞争优势下,不会做出头鸟,更崇尚以用户体验为前提,把「专业的事情需要交给专业的人做」的开发路线。

这里其实也不是意味着理想放弃自研,只不过在自研的道路上不会把所有任务都自己揽。

这种模式其实还要得益于当前国内新一批供应商的出现,它们打破了Mobileye 的僵局、又不会像英伟达那般有些许孤傲或者高攀。

在 2021 款理想 ONE 上我们看到了其搭载了两颗地平线 征程3 的自动驾驶专用芯片以及一个 800 万像素的摄像头的单目方案,视场角以及其它传感器都有所升级, NOA 功能也将在 9 月份推送。

地平线作为一个硬件供应商以外,也承担者一个软件服务商。例如这一次合作除了提供一个多通道计算以及多路摄像头的平台。

同时也可以提供软件工具、基础算法、参考算法给理想团队做参考,而地平线的团队与理想的团队也都在协同工作。

从立项到 2021 款理想 ONE 的上市,整个过程只有 6 个月的时间。而这一次理想针对算法的研发也从幕后开始走向台前。

显然在自研的脚步下,理想手里需要拿捏的是关于用户体验这个关键点,所以理想希望利用协同合作方式来追赶。

对于理想而言,目前关键是弥补落下的软件部分,也就是 0-1 的阶段。而在 X01 上也会一个全新平台 X 平台履责 1-10 的跨越。

所以我们也看到 X01 上的平台搭建非常关键,除了要做好一个底层架子,还需要把智能驾驶核心的东西归拢到一个核心计算平台。

计算平台下的触角(ECU)再伸到各个控制区域上,这时候无论是升级、改动就非常简单了,这也是理想当前搭建好一个重要架构的初衷。

而 Mobileye 卡脖子的地方在于这其中任何一个中间的更新无论是简单与否,都需要按需付费,对于当前需要高效优化的节奏来说,实则不是一个好的选择。

所以理想并没有大刀阔斧,而是实际把关键的软件信息与数据闭环掌握,拥有主动权,这就够了。

3、总结

在 X01 上我们也看到了理想应对更高阶的智能驾驶也预留了更多的接口,以便做好 L4 硬件的升级。另外在应对高精地图上,理想本身也有乙级的高精地图的采集。

目前理想首先要解决的是市场对智能汽车的需求,并且是「从无到有」的阶段。

从供应商看,理想 ALL IN 自研的方式与当前主流的方向不同,理想更偏向于用户体验的层面出发,掌握可控的优化以及迭代效率。

其它方向上更倾向于找一个合适的供应商,从培养供应商找到短板、再解决短板。这样的进度不会背负太大的风险,这样的路径显然和蔚来的发展方向是相反的。

六 、 智能驾驶 = 盖房子

此前和大家做了类比,智能驾驶的发展就像是盖房子,用户就是住户。

为什么我们多次强调造房子重要的是架构呢?

实际上如果一开始做好的架构没设计充分,在上车后所遇到的需求、安全等一些问题无法拓展,这就像你造完房子要改架构,不切实际。

这也就我和上次大家提到的木桶效应,「如果架构本身你的硬件预埋和你的软件、计算能力不匹配,或者某个地方出现短板,那么很可能导致你整个架构上车后的功能无法出来。」

所以我们整个自动驾驶架构比喻成一个房子的架构,那么此时你选购的芯片就是选地皮、算力就是地皮的面积,而搭建的软件算法就是施工队,也就是你从架构设计手稿中把它落地成一个实实在在的房子。

并且随时做改动、优化,以达到一个最好的效果来服务用户。

自研算法的重要性就在这里:

  • 我们可以根据用户的需求或者是我们自己的规划自己施工、优化;
  • 另一个重要性在于因为我们自己设计的架构,所以就算是迁移(更换计算平台)时也能够得心应手,不被架构“绑架”。

因为我们知道所有人都能拥有同样的地皮(芯片)、而只要你足够土豪也能够买到了 1000 平方(算力),但尽管拿到一个好地皮,每个人所呈现给用户的成果是不一样的。

再好的地皮也有烂尾、豆腐渣工程的出现。

七 、 总结

特斯拉的“自成一派”

特斯拉有异于当前所有的主流路线,从地基、架构、设计施工都是自己揽。当然特斯拉也曾“推倒重来”,不依赖任何一个第三方,这时候团队内的协同非常重要。

小鹏的“知己知彼”

小鹏路线上类似于特斯拉,只不过在架构设计后选择了别人的地皮,但用自己的架构和装修队,一砖一瓦自己建,所以整个建造速度迭代不快、但渐进式稳当,注重三大功能落地。而在优化上需要改动的“一砖一瓦”也非常熟悉。

蔚来要做“疯狂的建筑家”

蔚来的路线则比较跨越,从一块小地皮选了一块大面积的地皮,整个架构重新设计搭建,跨度带来的用户体验以及效果也会更好,可用周期也会更长,但也具备一定风险性。

理想要做“高效的行为主义者”

类似地平线、英伟达的芯片供应商,则在逐步改进新的合作模式,例如提出了“白盒”的方案,开放更多车企的合作。

理想和地平线的合作稍为创新,理想采用地平线提供地皮+装修队的路线,地平线很清楚基于自己地皮怎么样建房子可以呈现最好的效果,理想提供设计图纸、自研框架,协同开发。

智能驾驶的演进如同一个马拉松长跑

智能驾驶从产品的定义、架构定义后,软件上呈现基础功能,这样的不断迭代演进,才能满足用户的体验需求。

智能驾驶的演进如同一个马拉松长跑,起跑最快的选手不一定率先到达终点,并且每一个选手都有自己的策略与节奏。

我们看到在高效面前,大而泛不是好的方法,而是小而精。

智能驾驶以及智能座舱的开发已经不再属于单部门的任务,团队规模以及协同能力也变得至关重要。

智能驾驶的马拉松竞赛已经开启,谁才会是最后的赢家呢?

自动驾驶 小鹏城市NGP 小鹏P7 NGP 特斯拉Model 3 小鹏P5 蔚来ET7 理想ONE

  • 添加表情
  • 添加表情

相关评论共 38 条相关评论

  • 最热
  • 最新
  • 最早

极氪在全球三大城市的Robotaxi明年就会公开了,你可以期待一下

飞机先生: 全球!

贺磊 回复 飞机先生: 哥德堡旧金山北京

XCX1569746855: 可以先关注一下埃安已经在广州南沙运营的RoboTaxi,据说是量产车硬件。

贺磊 回复 XCX1569746855: 好滴,收到

XCX1569746855 回复 贺磊: 地点说错了,不是在南沙,是在番禺汽车城。微信搜「ADiGO Pilot」小程序可预约体验。

呀,沙发沙发,又可以学习了

飞机先生: 宝,送你大沙发

那天你在写草稿就是搞这篇文章

飞机先生: 哈哈那天在作图

完整看完了,飞机老师还是牛逼

飞机先生: 加电!

要看车主们的实际体验

飞机先生: 后续我们会继续为大家呈现实测的体验

哇,大作大作!

只想说,“辛苦你了”,真优秀......

盖房子质量最好的还是自建房

飞机先生: 现在还是有多个路径可以走的

飞机出品!

强啊,飞机老师