特斯拉自动驾驶发生事故-特斯拉自动驾驶事故调查

tamoadmin 0
  1. 特斯拉辅助驾驶车祸案明年1月开庭 原告要求马斯克出庭
  2. 疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车
  3. 一条开特斯拉的生命是怎么消失的,三小时听证会揭示诸多细节
  4. 特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?
  5. 又一起特斯拉自动驾驶撞车事故 类似事件曾判特斯拉车主负全责

特斯拉面临750多起刹车投诉,或遭数亿元罚款

 特斯拉面临750多起刹车投诉,或遭数亿元罚款,据悉,NHTSA要求特斯拉提供所有有关错误制动的现场报告,特斯拉必须在2022年6月20日之前做出回应,特斯拉面临750多起刹车投诉,或遭数亿元罚款。

特斯拉面临750多起刹车投诉,或遭数亿元罚款1

 据ABC4日报道,当地时间6月3日,美国国家公路交通安全管理局表示,该机构已收到超过750起特斯拉制动事故投诉。不少车主抱怨说,特斯拉的自动驾驶系统有问题,“汽车突然无征兆地停在半路上。”

特斯拉自动驾驶发生事故-特斯拉自动驾驶事故调查
(图片来源网络,侵删)

 相关报道截图(来源:ABC)

 报道称,早在今年5月4日,美国国家公路交通安全管理局就向特斯拉发去了一封长达14页的函件,不仅要求其提供收到的投诉报告,还要详细描述当时的现场状况,包括车辆是否发生碰撞、事故现场是否有人受伤以及事故发生时,汽车的自动驾驶***系统和自动紧急制动系统是否处于“活跃”状态。

 自今年2月以来,美国国家公路交通安全管理局收到的有关特斯拉的投诉增加了一倍多。函件中提到,特斯拉必须在6月20日之前回应有关自动驾驶制动的问题,但同时,公司方面可以提出延长期限。

 特斯拉资料图(来源:《纽约邮报》)

 今年2月中旬,美联社报道称,在收到354起有关“幽灵刹车”的投诉后,美国国家公路交通安全管理局表示将启动对特斯拉的调查,主要涉及特斯拉2021年和2022年的“Model 3”和“Model Y”车型。

 由于有用户表示,在开启特斯拉汽车的自动驾驶***系统时,车辆会在某种不需要刹车的情况下突然“无缘无故”地刹车,因此该问题也被部分车主称为“幽灵刹车”。

 “消费者反馈说,‘幽灵刹车’***通常在没有提前预警的情况下发生,所以自己非常担心,怕在高速公路上会发生类似问题,增加汽车追尾的风险。”美国国家公路交通安全管理局表示。

 目前,特斯拉正处于舆论的风口浪尖之上。当地时间6月2日,路透社报道称,特斯拉CEO埃隆·马斯克表示对经济状况不乐观,公司需要裁员约10%,且暂停全球招聘。该消息一出,引发市场一片哗然。受此影响,当地时间周五晚上,特斯拉股价暴跌逾9%。

特斯拉面临750多起刹车投诉,或遭数亿元罚款2

 6月3日,美国国家公路交通安全管理局(NHTSA)公布了一份监管文件。该文件显示,今年2月以来,对特斯拉汽车“幽灵制动”的投诉已经从354起上升到了758起,增加了一倍多。

 “幽灵制动”指的是高级驾驶***系统(ADAS)或自动驾驶系统在没有充分理由的情况下自动刹车。该系统可能会错误地监测道路上的物体,或者预测不会发生的碰撞,并***取非必要的制动措施。

 “幽灵制动”会带来重大的安全隐患,如果后方的车辆靠的得太近,很可能会造成追尾事故。

 据悉,NHTSA要求特斯拉提供所有有关错误制动的现场报告,并且询问了特斯拉的自动驾驶系统在这些事故中是否处于激活状态。而特斯拉必须在2022年6月20日之前做出回应,否则可能面临高达1.15亿美元的罚款。

 NHTSA调查的重点是2021-2022款的Model 3和ModelY。不过,老款Model 3和Model Y的车主也报告了越来越多的“幽灵制动”***,特别是在2021年5月软件升级到只支持视觉的***驾驶系统之后。

 美国科技网站The Verge表示,“幽灵刹车”的问题可能要追溯到去年特斯拉决定在新款Model 3和Model Y汽车上移除雷达传感器。在做出这一决定之前,马斯克曾公开表示,希望特斯拉的***驾驶可以完全依靠摄像头来完成。

 据悉,雷达传感器被用来帮助探测快速接近的物体,在许多现代汽车中很常见。它们即使在能见度很低的情况下也能正常工作,是为自动紧急刹车等安全功能提供数据支持的传感器之一。虽然现代汽车也会从其他传感器(包括摄像头)获取数据,但汽车制造商倾向于使用多种类型的传感器,因为如果一种类型的传感器故障或不能在特定情况下运行,总有替代方案。

 今年2月,NHTSA对特斯拉的“幽灵刹车”情况展开了调查,涉及特斯拉Model 3和Model Y两款车型中约41.6万辆汽车。但目前还没有因为刹车问题而发生***或造成人员伤亡的'报道。

 美国汽车安全中心代理执行董事兼首席法律顾问迈克尔·布鲁克斯(Michael Brooks)说:“在短时间内收到这么多投诉,这表明NHTSA应该加大调查力度。我们每个月都有数百名车主报告他们的紧急刹车系统被错误激活,可能还有更多的人有类似的问题但没有向NHTSA报告。”

 关于特斯拉“幽灵刹车”的报道最早出现在2021年10月,当时特斯拉被迫撤回其全自动驾驶(FSD)测试版10.3,原因是系统升级后出现了虚***的碰撞警告和意外刹车等问题。

 据了解,NHTSA正在对所有车企的自动驾驶事故进行深入调查。自2016年以来,该机构已派出团队调查了34起与之相关的事故,其中28起涉及特斯拉汽车。

特斯拉面临750多起刹车投诉,或遭数亿元罚款3

 美国汽车安全监管机构在最新公布的监管文件中宣布,将对特斯拉加大调查力度。此前,该机构收到758起被称为“幻影制动”的投诉,即特斯拉汽车在高速行驶中突然刹车。

 监管文件显示,2021年和2022年生产的特斯拉汽车遭到车主“幻影制动”投诉的数量从2月份的354起升至758起,这促使美国国家公路交通安全管理局(NHTSA)要求特斯拉在6月20日之前就此作出答复。如果不及时做出回应,这家汽车制造商将面临高达1.15亿美元的罚款。

 据悉,此次调查涉及Models 3和Models Y两款车型中的约41.6万辆汽车,目前还没有因为上述制动问题导致的撞车事故或人员受伤报告。这些车辆配备了部分自动化的司机***驾驶功能,如自适应巡航控制和Autopilot,使它们能够在车道内自动制动和转向。

 但NHTSA在公布的文件说,这些车辆可能在高速行驶时意外刹车。该机构表示:“投诉者报告称,突然减速和刹车可能会在没有任何警告的情况下发生,而且往往会在单次驾驶周期内反复发生。”投诉中的许多车主表示,他们担心会在高速公路上发生追尾事故。

 这次调查是美国汽车安全监管机构针对特斯拉汽车诸多调查中的最新一项,这些调查包括特斯拉司机***驾驶系统Autopilot及其高级版本“全自动驾驶”(FSD)软件。尽管名字容易引起误解,但事实上这两款软件都未能实现在没有人类司机监督的情况下自动驾驶车辆行驶。

 这是过去三年来,美国监管机构针对特斯拉进行的第四次正式调查。自2021年1月以来,NHTSA正在监督15次特斯拉召回。此外,自2016年以来,该机构已派出调查人员调查至少33起涉及特斯拉车主启动Autopilot发射的撞车事故,已经有11人在事故中遇难。

 在最新投诉中,一名来自奥斯汀的特斯拉车主报告说,其装有Autopilot的Model Y在两车道的道路和高速公路上行驶时,曾无缘无故地反复自动刹车。

 这位车主在2月2日提交的投诉书中写道:“这些幻影制动包括减速时缓慢制动到高速时紧急刹车,它们大大降低了车速,对我和车内乘客以及可能跟在我后面的车中的乘客造成人身安全威胁。”

  各种原因多次召回

 就在上周,NHTSA要求特斯拉在美国召回近57.9万辆汽车,因为“Boombox”功能可以通过外部扬声器播放声音,并在行人看到有车辆驶来时发出模糊的声音警告。

 非营利组织“汽车安全中心”代理执行董事兼首席法律顾问迈克尔·布鲁克斯(Michael Brooks)说:“在短时间内收到这么多投诉,这表明NHTSA应该加大调查力度。我们每个月都有数百名车主报告他们的紧急刹车系统被错误激活,可能还有更多人没有向NHTSA报告这个问题。”

 他还表示,看到NHTSA对特斯拉***取的执法行动令人鼓舞。但布鲁克斯说,特斯拉始终向在美国道路上行驶的汽车发布软件,而这些软件没有经过测试以确保它的安全。

 布鲁克斯在电子邮件中写道:“对每个引起关注的问题***取零敲碎打的调查方法,并不能解决特斯拉安全文化中更大的问题。该公司继续愿意在美国公众身上测试其技术,同时歪曲其车辆的性能。”

 特斯拉最近还因其他问题召回许多车辆,比如在遇到停车标志时依然会减速通过,加热系统无法快速清理挡风玻璃,司机未系好安全带也不会受到警告,允许司机在驾驶时在触摸屏上播放**等。这些问题本应通过在线软件更新来解决。

 去年8月,NHTSA宣布对特斯拉Autopilot进行调查,因为其未能发现停在道路上的紧急车辆。这项调查涵盖了十几起导致1人亡、17人受伤的撞车事故。

  制动问题曾有先例

 在最新调查之前,特斯拉在去年10月份因类似的幻影制动问题召回了近1.2万辆汽车。该公司发布了在线软件更新,以修复其FSD软件的故障。去年9月份,特斯拉进行了一次软件更新,旨在改善在弱光条件下识别紧急车辆灯。

 许多经过挑选的特斯拉司机已经开始在公共道路上对FSD软件进行了测试。该公司警告称,由于汽车尚不能自动驾驶,司机必须准备好随时接管。NHTSA还要求特斯拉提供有关汽车测试的信息,包括特斯拉要求测试人员保密的信息。

 安全倡导者抱怨说,特斯拉不应该被允许在有未经培训的司机的交通环境中测试其技术,而且特斯拉的软件可能会出现故障,使其他司机和行人陷入危险。大多数其他拥有类似软件的汽车公司都会用训练有素的人类安全司机进行测试。

 NHTSA在2021年8月的一份声明中表示:“NHTSA提醒公众,目前没有任何商用机动车辆能够自动驾驶。目前可用的车辆都需要人类司机随时准备接手控制,所有法律都要求人类司机对车辆的行为负责。”

特斯拉***驾驶***案明年1月开庭 原告要求马斯克出庭

太平洋汽车网驾驶员可以轻松地通过轻触方向盘或刹车来关闭自动驾驶仪Autopilot。需要注意的是,一旦踩下刹车,自动驾驶功能自动关闭,需要驾驶员及时介入驾驶。

这还是Autopilot第一次出现这种问题。

这起事故发生在米德尔塞克斯县,当时一辆ModelX汽车在北不伦瑞克附近的1号公路上驶出车道,撞向路边的指示牌。

所幸的是,这名司机没有受伤,也没有受到指控。但据报道,这辆车“受到了严重的损坏”。如上图所示,它被拖走了。

据当地新闻机构NJ***报道,警方在报告中写道:“这辆车本可以径直行驶或从亚当斯巷出口驶出,但它却从两者的中间冲过去,撞到了路边的几个物体上。”

根据新闻报道,这是谷歌街景地图上显示的事故发生地点:据报道,ModelX汽车在停下来之前撞到了路旁的一些指示牌和其他物体。

这名司机还说,他试图在Autopilot自动驾驶仪上重新夺回这辆车的控制权,但却没有成功:“(特斯拉车主)说,他试图重新控制这辆车,但Autopilot不让他控制。”

当Autopilot的自动转向功能Autosteer启动时,驾驶员只需转动方向盘或踩下刹车,即可脱离驾驶员***功能。

特斯拉已了解到了这起事故,特斯拉的一位发言人向我们发送了以下声明:“安全是特斯拉的头等大事,我们在设计和制造我们的汽车时就考虑到了这一点。我们还要求我们的用户在使用我们的车辆时保持安全驾驶行为,包括在汽车使用自动驾驶仪时保持警惕,随时准备控制车辆。驾驶员可以轻松地通过轻触方向盘或刹车来关闭自动驾驶仪Autopilot。”

“此外,刹车系统有一个独立的旁路电路,无论Autopilot自动驾驶仪要求什么,它都能切断马达的电源。方向盘有足够的杠杆作用力,可以使人的力量在任何时候都能超过电动转向助力。”

“自2015年推出Autopilot以来,我们还没有发现过一起Autopilot拒绝关闭的案例。”

(图/文/摄:太平洋汽车网问答叫兽)

疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车

易车讯 日前,我们从相关渠道获悉,一起于2019年发生的特斯拉Model 3致车主亡事故将于明年1月正式开庭,并且原告要求特斯拉CEO埃隆·马斯克(Elon Musk)出庭。据悉,关于这起案件的责任认定核心在于特斯拉Autopilot驾驶***系统是否存在隐患,目前美国高速公路交通安全委员会(NHTSA)正在积极调查。

2019年,一名叫做杰里米·班纳(Jeremy Banner)的车主驾驶Model 3在佛罗里达州撞上了一辆半挂卡车而身亡。作为原告,班纳的律师将马斯克列入明年首次庭审的证***选名单中。此外,班纳的家人也聘请了美国高速公路交通安全委员会(NHTSA)顾问玛丽·卡明斯(Mary Cummings)来作证。不过在正式开庭前,特斯拉和马斯克的律师仍可以尝试将马斯克从证***选名单中删除。

今年6月,美国国家公路交通安全管理局(NHTSA)最近发布了一份清单,提供了其“特别碰撞调查”项目正在审查的特斯拉撞车事故细节。在多达30起特斯拉撞车事故中,NHTSA已经排除了三起Autopilot引发事故的可能性,并公布了其中两起撞车事故的报告。此外,NHTSA上月撤回了对部分较新特斯拉Model 3和Model Y汽车四项先进安全功能的认证,之后NHTSA没有进行新的测试。

9月份,美国国家公路交通安全管理局(NHTSA)已经要求12家车企提供有关“先进驾驶员***系统”的数据,以此来帮助他们调查特斯拉Autopilot自动驾驶***系统。据悉,美国国家公路交通安全管理局(NHTSA)下属的“缺陷调查办公室”发起了此次调查,并致函福特、通用、丰田北美公司和大众美国公司等12家汽车制造商,要求他们提供与L2级自动驾驶***系统有关的信息和数据。

的一起事故导致车主杰里米·班纳(Jeremy Banner)亡。针对这起事故的首次庭审预计将于2022年1月举行,核心问题在于特斯拉Autopilot驾驶***系统是否对事故负有责任。特斯拉CEO埃隆·马斯克(Elon Musk)和美国高速公路交通安全委员会(NHTSA)顾问玛丽·卡明斯(Mary Cummings)很可能出庭作证。

一条开特斯拉的生命是怎么消失的,三小时听证会揭示诸多细节

你没看错,这次还是特斯拉的自动驾驶。因为自动驾驶事故,特斯拉最近频上头条。

近日,一位特斯拉Model?3车主在网络论坛上发文***,该车主称,其驾驶开启AutoPilot完全自动驾驶功能的Model?3在深圳南坪正常行驶时,右前方行驶的渣土车突然并道而来,而他的Model?3在自动驾驶系统的控制下,非但没有停下来,反而加速冲了上去。

从车主公布的信息来看,当时Model?3正在与前面的渣土车跟车行驶,这时右方并过来一辆**的渣土车,但Model?3没有自行减速和调整方向的操作。同时,Model?3前方的渣土车开始加速行驶,处于跟车状态的Model?3也开始猛地加速,然后就撞上了正在并线的渣土车。

针对公布内容,车主还承诺均为亲身经历,如果存在与事实不符的情况,愿意承担相应的法律责任。

另外,据车主透露,爱车是在2019年8月购买,购车的同时购买了号称“具备完全自动驾驶能力”的FSD。购车以来,也经常使用FSD,按照以往的经验,这种情况下,特斯拉会自动减速或往旁边变更方向。但这次,特斯拉没有像往常一样做出正确反应,车主想强行干预时,已经撞上了渣土车。

事后,车主要求特斯拉解释,自动驾驶未能识别到大型渣土车并且加速冲撞的原因,但是特斯拉工作人员表示“FSD硬件和数据分析是没有异常”。

对此,也有自称业内人士的网友解释道,卡车处于特斯拉盲区,没被检测到是正常现象。同时当时车辆处于自动跟车状态,前车加速后,Model?3也自动加速,因此出现了突然冲撞渣土车。并判定特斯拉的FSD无责任。

显然,这种结论站不住脚,特斯拉FSD存在视觉盲区本身就是硬件缺陷,但在宣传的时候不提醒车主缺陷隐患。就当前阶段,还是提醒大家不要过度依赖自动驾驶,只能作为一种驾驶的***手段。毕竟自动驾驶技术还未成熟,开车在路上,生命是自己的!

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

缺乏实质监管权的NTSB无法强制推行它的提议,短期内也不太可能有任何改变

美国国家运输安全委员会(National?Transportation?Safety?Board,下文简称NTSB)周二(2月25日)举行了听证会,对长达两年的2018年的特斯拉致***大调查进行了总结。

长达三小时的听证会中,NTSB列举了这起致事故的诸多原因:特斯拉Autopilot是2018年撞上混凝土护栏的致命事故的可能原因之一;事故发生前,司机使用Autopilot时也在玩手机游戏,?存在分心驾驶行为;事故发生时,护栏前的碰撞减速装置已经损坏,而加州交通局(Caltrans)未及时更换。如果更换及时,车主沃尔特·黄(Walter?Huang)或许可以活下来。

在听证会上,委员会成员讨论了这起***揭示出的问题:特斯拉Autopilot的过度使用,美国高速公路安全管理局(National?Highway?Traffic?Safety?Administration,下文简称NHTSA)对部分自动驾驶技术监管的松懈,黄先生的雇主苹果公司(Apple)没有制定针对分心驾驶的安全政策。(当时,车主黄先生正使用他公司开发的iPhone玩手机游戏。)

NTSB表示,在这起***中,他们看到人们对技术的过度依赖,司机的分心驾驶,开车时禁用手机安全政策的缺乏,还看到了道路基础设施存在的问题。正是这些问题的结合导致了这场悲剧性的***。“我们敦促特斯拉继续改进自动驾驶技术,要求NHTSA履行其监督责任,确保在必要时进行监管和纠正。是时候禁止让那些半自动化驾驶汽车司机***装自己拥有的是完全自动驾驶汽车了。”

调查新发现

2018年3月23日,38岁的苹果软件工程师黄先生驾车前往加州山景城工作。***前的18分钟他都一直在使用Autopilot,撞上路障前的车速约71mph。根据早期的初步调查报告,车辆系统给了他两次系统界面提醒,一次语音警告。***前的最后6秒内,方向盘上也未检测到司机的手。

听证会上,NTSB的调查人员出示了最新证据,提出了23项发现,并提出了9项新的安全建议

该团队的一***现是,***的部分原因在于Autopilot视觉处理系统的局限。特斯拉CEO埃隆·马斯克(Elon?Musk)一直认为,自动驾驶汽车不需要激光雷达(一种可以建立实时3D模型的激光传感器),所以Autopilot系统的设计由摄像头系统、超声波传感器和前置雷达组成。

调查人员表示,摄像头的可靠性有限,黄先生***前偏离HOV车道就是一个实证。事实上,调查人员发现,黄先生的车在事故发生前的几天乃至几周内发生过很多次类似的危险。

此外,调查人员指出,特斯拉“没有提供一种有效的手段来监控驾驶员对驾驶任务的投入程度。”特斯拉目前使用扭矩传感器来检测车主的手有没有对方向盘施加力。

NTSB的调查还发现,Model?X的前向碰撞预警系统并没有提醒黄先生注意即将到来的撞击***,也没有提醒车辆减速;事实上,Model?X在撞击前还加速了,因为系统认定可以恢复到黄先生之前设定的75?mph的巡航速度

NTSB表示,特斯拉没有设计应急系统来应对类似情况,还指责NHTSA没有要求特斯拉等公司在这样的事故中使用类似应急系统。

调查人员表示,如果特斯拉不增加新的安全措施,限制Autopilot只在其推广的功能之外使用,那么“未来发生事故的风险仍将存在”。

调查人员认为黄先生分心驾驶也很大程度上造成了***。他在***前玩手机游戏,“很可能”就是他没有避开障碍物的原因。调查组表示,诸如限制分心驾驶的功能或完全关闭智能手机等应对措施,将有助于降低与分心驾驶相关的***概率

苹果确实有类似的驾驶模式,开车时可以关闭很多应用和功能,但NTSB委员会成员之一托马斯·查普曼(Thomas?Chapman)表示,“坦率地说,不知道我的手机上有这样一个功能”。

“这当然是关键所在,更有意义的做法是默认设置成这样,更好地确保用户知道这一功能的存在。”?查普曼说道。

更糟糕的是,黄先生显然对Autopilot的性能过于自信,他在驾驶时玩游戏就能证明。特斯拉过去曾表示,过度自信对Autopilot的驾驶员来说是一种风险,这也是它在用户手册中提醒车主使用系统时要密切注意的原因。

九项新建议

NTSB的九项新建议是多向发出的,但没有特别向特斯拉发出,或许是因为特斯拉至今还没有正式回应它在2017年对另一起与Autopilot相关的致命事故的调查的建议。

相反,NTSB似乎更愿意要求其他***机构介入并监管,借以影响特斯拉和其他汽车制造商的决策。

前四项建议正是针对NHTSA的,NTSB要求它开始对汽车制造商的前向碰撞预警系统进行测试,尤其是测试系统如何处理“常见的障碍”。NHTSA目前版本的评估程序,也就是所谓的新车评估程序,没有考虑到这一点,NTSB一些委员会成员对此很不满。

NTSB还要求NHTSA开始评估Autopilot的性能极限,测定该系统被过度使用的可能性。如果发现安全缺陷,NHTSA应该利用其监管权,确保特斯拉“***取纠正措施”。

NTSB还要求NHTSA与美国汽车工程师协会(Society?of?Automotive?Engineers)合作,制定驾驶员监控系统的标准,以“最大限度地减少驾驶员的疏忽,防止对自动驾驶的自满情绪,并对可预见的自动驾驶滥用做出解释”,要求所有具备类似自动驾驶功能的车辆都***用这种技术。

在分心驾驶方面,NTSB建议苹果***取一项政策,禁止非紧急情况下在公司车辆中或在公司工作时使用智能手机和平板电脑。它还要求美国职业安全与健康管理局(Occupational?Safety?And?Health?Administration)帮助雇主提高对分心驾驶危险的认识,在雇主不遵守规定时介入。

NTSB还建议智能手机制造商开发更好的车内“勿扰”模式。这种模式启用后,“车辆行驶时自动禁用任何会分散驾驶员注意力的功能”(但允许该设备在紧急情况下使用),设置为默认启用。

建议有人听吗?

在听证会中,NTSB的调查结果和建议中贯穿着同一个主题——企业和其他***机构基本上是在利用它缺乏自动驾驶实质监管权的弱点。

NTSB是一个独立的***机构,它只有调查和提出建议的权力。后续还取决于其他各方的行动,但实际上之后各方并没有付诸行动。

特斯拉目前仍未正式对该机构881天前发布的建议做出回应。NHTSA也没有对NTSB之前提出的改进新车评估***的建议做出适当回应。1044天过去了,加州交通局没有对NTSB之前关于改进碰撞减速装置的建议做出回应。

“令我感到不安的是,在这份报告中,我们提出了一些建议,但迟迟没有得到回应。”?NTSB委员会***罗伯特·萨姆沃特(Robert?Sumwalt)在当天的听证会上表示,“这也是我们又一次通过建议来影响改变。坦白地说,这令人沮丧。”

NTSB?重申了之前的五项建议,而这些建议各监管机构和企业都没有做到。例如,特斯拉,该委员会再次要求公司增加安全措施,将Autopilot限制在设计好的场景下使用。这一次,该委员会仍然建议特斯拉开发更好的司机监控系统。

萨姆沃特和其他成员在听证会中表达了他们对NHTSA和特斯拉的不满,指责NHTSA基本上放弃了自己作为监管机构的角色,称特斯拉在车主监管方面存在很大不足。

萨姆沃特甚至对Autopilot这个名字提出了异议。“个人认为,从安全角度看,Autopilot可能不是最知名品牌的(系统)名称。”

尽管如此,NTSB无法强制推行它所寻求的任何改变,短期内不太可能有任何改变。在此之前,它可能还是不得不继续调查类似这样事故。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

又一起特斯拉自动驾驶撞车事故 类似***曾判特斯拉车主负全责

特斯拉又发生了一次事故!

据国外媒体报道,几天前,美国底特律的一辆白色Y型轿车在T型路口撞上一辆大型卡车。 Y型车的前部很低,直接进入卡车底部,车辆严重受损。

事故发生在当地时间上午3:20左右。事发时,一男一女在车上受重伤,被送往当地医院救治。卡车司机没有受伤。

发生四起事故,两人亡,两人受伤。为什么特斯拉总是撞上一辆白色卡车?

特斯拉最近在底特律撞上一辆白色卡车

在2016年和2019年,特斯拉在美国发生了两次致命事故。在打开L2级自动驾驶系统的同时,车辆在垂直方向撞到一辆大型卡车,最终导致车辆上人员丧生。

2020年,台湾的Model 3也撞上了一辆以高速翻转的卡车。

在2019年的特斯拉事故车中,驾驶员不幸亡

发生四起事故,两人亡,两人受伤。特斯拉为什么总是撞上一辆白色卡车?

2020年事故现场监控画面

这三起事故具有高度相似性。因此,在特斯拉发生另一起类似的事故后,它也引起了极大的关注,与此同时,它继续引发了一个令人深思的问题:

为什么L2自动驾驶系统被称为最强大的量产汽车,却无法避免白色卡车?

答案不是特斯拉的技术不强,也不是特斯拉的白色卡车或“天敌”。

这是因为在当前以“相机+毫米波雷达”为主要传感器的L2自动驾驶方案中,检测静态车辆是一个世界性的问题。每个系统对于固定式车辆来说都是令人头疼的问题。

例如,今年2月,一台蔚来ES8打开L2自动驾驶系统进行巡航时,撞到了行人和静止的五菱宏光。 (请参阅商品《蔚来ES8开L2撞人又撞车,为啥装24个传感器都躲不开?》)

1.尚未确认特斯拉是否已打开L2

如前一篇文章所述,该事故引起了一些中外媒体关注的根本原因在于,特斯拉的车型经历了严重事故,导致L2撞上卡车并杀了驾驶员。

但是,从当前的外国媒体报道和Twitter上知情网民的新闻来看,事故发生时尚无法确认车辆是否开启了L2自动驾驶系统。

事故现场

因此,此事故的原因与特斯拉的L2自动驾驶系统无关。

当然,就责任分工而言,即使是2016年和2019年发生的两次致命卡车撞车事故也是驾驶员的问题。

2016年类似的事故现场因为特斯拉的AutoPilot系统属于L2级自动驾驶,所以其中一个仅在有限的场景下工作,而另一个则是监视路况并准备接管。

例如,当在垂直方向上有一辆大卡车时,这是一个不在系统中工作的场景,驾驶员需要及时接管车辆。

去年3月23日,美国国家运输安全委员会(NTSB)发布了有关两个Tesla AutoPilot L2自动驾驶系统的最终报告。报告显示,在这两次事故中,驾驶员过度依赖Titla L2级自动驾驶,从而出现了意外现象,最终导致了事故。

特斯拉有2伤2伤,总是撞上白色卡车吗?

NTSB在其网站上发布了最终调查报告

NTSB认为,卡车司机在十字路口不设停车位,而是直接驶入高速公路,属于危险的驾驶行为。特斯拉Model 3驾驶员过分依赖Testla L2自动驾驶技术,导致无法集中注意力。 NTSB最终确定了事故原因,原因是特斯拉AutoPilot L2自动驾驶系统在驾驶员下车时没有及时提醒,并且设计条件不一致,最终导致了撞车事故。

其中,事故是2019年3月1日MODEL 3撞上卡车导致驾驶员亡的事故。

即使没有L2,Nasla的AEB自动紧急制动系统为什么会出现故障?

特斯拉的自动包围曝光系统可以手动关闭,因此,如果驾驶员关闭自动包围曝光,那么该系统自然将无***常工作。

二,事故可能性分析传感器的配置

从美国监管机构的报告中可以看出,卡车的垂直碰撞显然超出了特斯拉L2系统的工作范围,加上驾驶员未能及时接手。

因此,问题是,为什么自动驾驶仪系统(被公认为“量产汽车中功能最强大的L2”)不能避开一辆大型卡车?

这与车东关于威来ES8事故的先前报告的结论是一致的:事故的根本原因是“摄像头+毫米波雷达”的传感器配置,很难识别静止的车辆或行驶缓慢的车辆。

与Model 3一样,Tesla Model Y配备有8个摄像头,1个大陆毫米波雷达和12个超声波雷达。

特斯拉传感器配置

当打开L2级自动驾驶系统(自动驾驶仪,NOA或EAP系统)时,车辆主要依靠前视摄像头和毫米波雷达来检测前方的物体。

尽管特斯拉目前有3个摄像头,但它不使用立体视觉。这三个相机主要具有不同的焦距和不同的视场。因此,总的来说,特斯拉与大多数当前的L2自动驾驶系统相同,都是视觉+毫米波雷达传感器解决方案。

无论是使用基于规则的视觉算法还是深度学习技术,在感知外部物体时视觉都永远不可能100%准确,甚至经常会出错。

例如,当作者自己的特斯拉走出地下室时,他会莫名其妙地将隔离墙识别为公共汽车。另一个例子是最近流行的Douyin***,其***斯拉莫名其妙地识别了空墓地中的行人。

特斯拉在无人墓地认出行人

另外,还存在将公交车上的人的照片识别为行人并将路侧广告屏幕上的停车标志识别为真实停车标志的情况。

依靠反射的毫米波来检测目标的雷达不会被“听到”,如果前方有东西,就会有回声,如果什么都没有,就不会有回声。

正是由于视觉错误的可能性较高,雷达才更加“可靠”,因此大多数L2系统将在视觉的基础上引入毫米波雷达的检测结果以进行验证。

如果摄像头检测到前方车辆,并且雷达也确认了前方车辆的位置和速度,则可以执行制动操作。

如果将这些错误识别的结果用于做出驾驶决策,则显然会出现更多问题。特斯拉很自然地知道这一点,因此在实践中他不会对纯粹的视觉感知结果做出反应。

因此,这起事故的原因非常清楚。不管视觉上是否能识别前方的车辆,毫米波雷达都不能给出结果,因此最终系统没有响应。

第三,毫米波雷达天生就有缺陷,害怕固定式车辆

毫米波雷达不是“闻所未闻”的,那么为什么它不能识别前方的卡车呢?

东南大学毫米波国家重点实验室的毫米波雷达技术专家,毫米波雷达公司的Falcon Eye Technology的首席技术官张辉反复分析了背后的原因。

从工作原理的底部开始,毫米波雷达主要依靠多普勒效应来感知运动目标。多普勒效应的特征在于,动力学是最容易感知到的动力学,动力学更难以感知到静力学,而静力学则极其难以感知到静力学。

这是因为如果前面的车辆是静止的,则目标信息容易与地面杂波混合,并且需要某种算法来将目标与目标区分开。如果它是一辆正在行驶的汽车,则根据其多普勒信息,最好检测目标。

因此,如果卡车静止不动或行驶缓慢,则雷达算法无法知道前方有物体。

但是这种可能性并不大,因为主要的雷达公司已经制定了一些可以识别静态物体的感知算法。

真正的困难是当前的雷达没有海拔信息,空间分辨率也不足。

没有高度信息,这意味着雷达很难区分横穿道路的路标和桥下的汽车。空间分辨率不足意味着两个非常接近的物体的回波将混合在一起,并且很难知道有多少个目标。因此,在雷达公司和一些汽车公司获得雷达反射数据之后,它们将通过算法直接过滤掉一些静止的物体或怀疑是静止的物体,以避免错误的反应。

例如,在这种事故情况下,由于卡车沿模型Y的垂直方向行驶,如果同时行驶速度非常慢,则由于缺少径向多普勒分量,雷达识别算法可以轻松对其进行过滤列为静态目标。

如果毫米波雷达能够滤除目标,则无论是否可以看见卡车都无***常工作。

结论:汽车公司仍在优化L2自动驾驶

回到这次事故,尚未确定特斯拉是否开启自动驾驶系统,事故原因仍需当地警察和特斯拉官员调查。实际上,即使打开了L2级自动驾驶仪系统,白色卡车的场景还是有些极端。对于当前量产的L2自动驾驶系统,仍然存在许多无法处理的情况。

鉴于L2级自动驾驶系统中存在的各种问题,汽车公司也给出了自己的解决方案。一方面,通过“阴影模式”和道路测试等方法对自动驾驶算法进行了持续优化,从而使自动驾驶系统继续趋于成熟,同时不断提高了L2自动驾驶的功能。另一方面,随着硬件成本的下降,许多型号都***搭载Lidar以避免类似事故的发生。

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动***驾驶)模式中出了一次撞车事故。

近日,在***,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据***显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体***访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在***。据当时的调查结果显示,由于***接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为***,一旦发生***,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致***。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定***的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动***驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉******介绍,Autopilot自动***驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自***特斯拉***。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动***驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的***驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看***、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS ***大卫·哈基(D***id Harkey)接受媒体***访时称,“制造商应该考虑其系统名称所传达的信息”。

标签: #特斯拉

上一篇比亚迪海鸥荣耀版优惠多少-海鸥 比亚迪

下一篇当前文章已是最新一篇了