博海拾贝

特斯拉财报会议中又做了大量 FSD 相关的陈述

@不是郑小康:特斯拉在财报中没有提到的,但在财报会议中又做了大量 FSD 相关的陈述,我想通过这条微博来整合汇总一下。

从 2024 年全年看,到 FSD v12.5,特斯拉将 MPI(两次接管间连续行驶的平均里程)提高了两个数量级。通过即将推送的 FSD v13,特斯拉希望 MPI 较 v12.5 提升 5 – 6 倍,最终实现 2024 年全年提升 3 个数量级,也就是 1000 倍的改进。

特斯拉预计对 MPI 的改进趋势将在明年继续下去,预期在 2025 年 Q2 或最晚 Q3,在 MPI 上超越人类的水平。(人因为一直在开车,所以说不存在接管一说的,因此这里所说的应该是所有人类司机,每隔多少公里发生一次事故,这个数值就是人类的 MPI)

目前,特斯拉已经为在湾区工作的特斯拉员工提供了基于 FSD 的叫车服务,用户可以通过 App 叫车,然后 FSD 可以带用户去湾区的任意位置。但是,由于当前 FSD 的 MPI 还不够高,以及监管的因素,主驾上还是有安全驾驶员的。

不过,特斯拉已经完成了相关软件,包括 App 及车端账号同步、导航等功能的开发。特斯拉希望明年在加州和德州对外发布叫车服务,考虑监管的复杂性,德州会更快一些。

如何实现这些改进?特斯拉 AI 副总裁 Ashok Elluswamy 此前介绍过,主要是通过模型、数据集、训练算力、架构这 4 个方面。比如 2024 年有一个重大的改变是 FSD 主平台从 HW 3.0 切换为 HW 4.0。这直接推动 FSD v12.5 相比前序模型的参数量扩大了 5 倍(最后也适配了 HW 3.0),也取得了显著的 MPI 进步。

未来一年内,HW 4.0 依然是主平台,特斯拉会通过继续放大模型、数据集和训练算力的规模,来取得新的改进。

对于 HW 3.0,接下来的几个季度里,特斯拉都将延续 FSD v12.5 的开发模式,即以 HW 4.0 作为主平台,在 HW 4.0 的新模型完成推送后,再向下兼容,通过机器学习的一些方法向下移植给 HW 3.0。

对于 HW 3.0 这样硬件受限的平台,改进模型性能的一个方法是增加训练阶段投入的资源。类比人类刚学会开车的时候,需要的推理算力非常之高,开车是一件非常累的事情。随着人不断训练开车技能,开车对大脑的推理算力的需求会变得非常小,开车不是一个高难度的烧脑行为。所以通过大规模的训练可以弥补推理硬件的受限。

但如果 HW 3.0 的算力或内存不足以支持无人监督的 FSD 的模型,特斯拉将免费为选装了 FSD 的 HW 3.0 用户进行升级。原话是如果 HW 3.0 确实无法支持,特斯拉会照顾好那些人(if it does turn out, we’ll make sure we take care of those who)。

截至目前,特斯拉的训练算力是 67.5 EFLOPS,规划到今年年底增加到约 90 EFLOPS。特斯拉 Giga Texas 工厂的训练集群启用了 2.9 万块 H100,计划于本月底扩大到 5 万块规模,最终规划是一个 10 万块 H100 & H200 的混合集群。

Elon Musk 的通用人工智能公司 xAI 在帮助特斯拉购买、扩张和训练方面提供了支持,包括模型训练到一半出错了,xAI 会帮助特斯拉从错误中恢复,然后继续训练。

尽管特斯拉对训练算力有着激进规划,并因此将全年支出上调了 10 亿美金,但回到业务层面,训练算力不是当下 FSD 业务的瓶颈,目前的难题是如何评估两个模型的优劣——当两个模型表现都很好,工程师不得不让两个模型同步运行更长的时间和场景,才能甄别出哪个模型更好。

特斯拉认为,拥有数百万辆的 FSD 车队对解决这个问题非常有帮助。

其实特斯拉在 Q2 财报电话会议上就提到了评估模型的难题,所以这是一个困扰特斯拉超过半年的问题。

特斯拉也在基于已经交付的几百辆 Semi 半挂采集回来的数据训练适用于半挂的 FSD 模型,所有的 Semi 半挂也都标配了 FSD 所需的自动驾驶硬件,他们正在基于这些数据进行训练,一旦训练完毕,就会为 Semi 半挂推送 FSD。

最后加一句我的个人看法:显而易见,端到端这个新的技术范式在智能驾驶领域还在高歌猛进,没有看到天花板渐显的迹象。

退出移动版