{{detailStore.author.is_follow?'已关注':'关注'}}
接上条的上条的上条。 现在来说毫末 AI Day 的亮点。 首先毫末和特斯拉的巨大分歧,其实也是我们所有中国车企和特斯拉的巨大分歧,就是激光雷达(LiDAR)。 我们后来者大体上是认可特斯拉数据驱动的思路、做视觉的方法、对 HD Map 的态度,但用不用 LiDAR 是一个非常大的分歧。 我尽量把问题说明白些。 毫末以谷歌之前发布的 AI 自然语言处理模型 PaLM 吃下海量互联网上的结构化和非结构化数据,取得了非常好的性能表现为依据,得出做好自动驾驶也需要大规模且多样性的训练数据。 到这里没有任何的问题,2019 年 Andrej 在特斯拉的分享里提到的也是大规模(large)、多样性(varied)和现实场景(real),两家公司的结论大概是一致的。 只不过对于「多样性」这个词,特斯拉和毫末是存在分歧的。 特斯拉认为,数据都是纯视觉的数据,多样性应该在于现实世界的多样性,比如雨夜反光的路面、阳光照射下桥的阴影、异型车、夜晚不清晰的车道线、隧道、修路等等。 而毫末认为除了场景的多样性,还意味着不同类型的传感器(这包括了 LiDAR 和雷达)、不同像素(100 万、200 万、800 万)、不同角度(毫末在乘用车以外也有很多别的业务,比如无人外卖车),对于大模型训练都有非常大的价值。 这决定了特斯拉非常致力于现实场景数据的采集和处理,而毫末走多传感器融合的路线。 另外是关于超算集群,毫末说「逐步揭开面纱」,但现场没有分享具体数据,只说了超算的目标是满足千亿参数的大模型,同时数据规模为 100 万 clips,整体的训练成本要降到 1/200。 至于具体的数据,也许是因为小鹏刚刚发布了超算中心,所以不方便说得太具体?:) 最后是应用 Transformer 导致的问题,毫末的说法是,一般 Transformer 所需算力是CNN 所需算力的 100 倍。但在这算力下平均 6.9% 的算力贡献了 94% 的价值,还有大量的弱关联、低价值的运算在乘加操作和功耗上产生了很多浪费。 所以在云端超算、车端模型和芯片上,都有一些提高效率的方法,但这里毫末并没有分享自己的实践,而是谈了一些行业已有的方案。 大家可能也发现了,我全程在拿毫末对比特斯拉,没办法,其他车企相关的分享过于有限,大家都不愿意说,我个人的感觉是,毫末在前瞻技术的追踪上还是非常积极的,但这再还不够,到落地还需要非常强的工程能力,到时候实车体验见了。
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧
写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部