特斯拉智能驾驶的安全性,又一次受到了质疑。日前,外媒《华尔街日报》发布了一段针对特斯拉Autopilot事故的深度调查视频。其中,《华尔街日报》列举了特斯拉从2021年以来的上千次碰撞事故中的222起。《华尔街日报》通过对这些视频的逐帧解读以及向专家咨询,认为特斯拉的自动驾驶系统导致的碰撞和特斯拉的纯视觉方案有关。
▲视频中特斯拉Autopilot系统导致的事故
不过,需要注意的是,Autopilot是特斯拉辅助驾驶系统中最入门的版本,本质上属于L2级自动驾驶,在使用过程中,仍然需要用户去关注道路交通情况。
在特斯拉的辅助驾驶产品体系中,从功能的丰富度来看,共有AP、EAP和FSD三个版本,国内用户可以用的主要是AP和EAP两个版本,FSD目前正在海外进行测试。
按照马斯克的说法,FSD版本预计将会在今年进入到国内。
01.
已提交1000多起事故 专家表示有严重缺陷
自2021年6月以来,NHTSA要求美国汽车制造商必须报告涉及L2级或更高级别自动驾驶系统导致的所有严重事故。
据报道,特斯拉已向NHTSA提交了与使用Autopilot有关的1000多起事故,但据《华尔街日报》称,由于特斯拉认为这些数据是专有的,因此大部分数据对公众隐藏。
然而,《华尔街日报》通过收集各州的报告并与特斯拉提交给NHTSA的事故数据进行交叉引用,绕过了特斯拉刻意的隐藏。
在《华尔街日报》的报告中列举出的222起事故中,有44起事故为在使用Autopilot功能的特斯拉突然转向,有31起事故是在未能识别出障碍物做出反应而导致的。
报告中指出,因为使用特斯拉Autopilot产生的这些事故导致了严重的伤害或死亡。《华尔街日报》让专家分析了一起致命事故,一辆正在使用Autopilot功能的特斯拉未能识别出高速公路上一辆侧翻的卡车,直接撞了上去导致了严重事故。
▲视频中特斯拉与侧翻卡车的事故
接受《华尔街日报》采访的一些专家表示,这是特斯拉目前的Autopilot功能有严重缺陷的证据。
与其他一些拥有激光雷达传感器来检测物体的汽车制造商不同,特斯拉的Autopilot功能主要依赖基于摄像头的纯视觉方案,只在少部分型号上将雷达作为备份。
▲特斯拉与拥有激光雷达传感器的车辆对比
2022年因发布特斯拉Autopilot功能失效视频而被特斯拉解雇的约翰·贝纳尔告诉《华尔街日报》,他发现一些特斯拉车型上使用的摄像头没有正确校准,导致不同的摄像头识别到的东西不一样。而当不同摄像头识别到的东西不一样时,Autopilot就可能在识别障碍物上出现问题。
《华尔街日报》从一名匿名黑客那里获得了一组罕见的特斯拉因使用Autopilot功能导致撞车事故原始数据,而数据验证了约翰·贝纳尔的说法。
当一辆被撞坏的车出现在路上时,特斯拉Autopilot系统中的其中一个摄像头识别到了它,但另一个摄像头没有识别。然后,随着障碍物越来越近,特斯拉的Autopilot系统没有做出动作,全速的撞了上去。
▲《华尔街日报》从匿名黑客那里获得的事故原始数据
02.
审查主要为入门版本
特斯拉已经重构产品代码
事实上,特斯拉辅助驾驶系统一直饱受争议,美国国家公路交通安全管理局(NHTSA)也对特斯拉的辅助驾驶系统进行了多次审查,但目前并没有实质性的结果。
不过,《华尔街日报》所调查的主要是特斯拉的AP系统,而这一系统并不代表特斯拉最新的技术实力。
多家外媒的报道,特斯拉已经更新了FSD V12.5.1版本,这一系统采用了端到端技术,底层代码和AP系统完全不同。
▲特斯拉FSD
据海外媒体介绍,FSD V12.5.1版本与车辆的2024.20.15软件一起推出,已于近期开始向部分用户的车辆推送。
与之前的版本相比,该版本包含多项改进,包括更及时、更自然的车道变更,并首次支持Cybertruck车型。
马斯克曾表示这一版本可以大幅降低用户的接管频次,此外,新版本还允许驾驶员在启用FSD辅助驾驶时佩戴墨镜,而之前的版本会误以往驾驶员没有注意观察,而提示驾驶员保持注意力。
目前这一版本主要向搭载HW4硬件的车型更新,之后才会向其他车型推送。
03.
结语:自动驾驶安全为王
随着自动驾驶技术的发展,其安全性问题一直是公众关注的焦点。《华尔街日报》的调查揭示了特斯拉自动驾驶系统在实际使用中存在的潜在风险,特别是其对摄像头的过度依赖可能导致的严重后果。
这一发现不仅对特斯拉公司提出了挑战,也对整个自动驾驶行业敲响了警钟。同时,这也提醒了消费者在使用这些技术时需要保持警惕,正确理解并使用自动驾驶功能,以避免可能的风险。
此外,行业内的合作、对伦理和法律问题的解决,以及对消费者教育的重视,都是推动自动驾驶技术健康发展的关键。展望未来,我们期待自动驾驶技术能够带来更多的便利和变革,但这一切必须建立在安全的基础之上。