AI 时代下组织如何快速变革?如何提升全员 AI 技能?戳> 了解详情
写点什么

特斯拉司机滥用 L2 辅助驾驶致两人死亡,被控过失杀人罪

  • 2022-01-20
  • 本文字数:1836 字

    阅读完需:约 6 分钟

特斯拉司机滥用L2辅助驾驶致两人死亡,被控过失杀人罪

自动驾驶技术一度被认为是当前交通出行领域智能化和网联化发展的主要方向,但,自动驾驶真的比人驾驶更安全吗?

特斯拉司机不当使用 L2 辅助驾驶致人死亡


美联社 1 月 18 日报道,日前,美国加州检察官对特斯拉司机 Kevin George Aziz Riad 提出两项“车辆过失杀人罪”的重罪指控,原因是其不当使用 L2 辅助驾驶导致发生车祸。这是全美第一起因为使用 L2 辅助驾驶系统致人死亡而被控重罪的案例。


据悉,该起车祸事件发生于 2019 年 12 月 29 日。当时,豪华轿车服务司机 Riad 驾驶的特斯拉 Model S 开启了 Autopilot(自动辅助驾驶)系统,在遇到红灯时,Autopilot 没有及时识别红灯并刹车,Riad 也没有及时接管车辆,最终导致 Model S 与一辆本田思域相撞。思域车上的两名乘客 Gilberto Alcazar Lopez 和 Maria Guadalupe Nieves-Lopez 当场身亡,Riad 和同车的一名女子也因受伤被送医治疗,不过二人并没有生命危险。


事故发生后,死者家属分别起诉特斯拉和 Riad,他们指控称,由于 Riad 的疏忽,且特斯拉销售有缺陷的车辆,造成突然加速且自动紧急制动没有开启,最终导致严重事故。


美国国家公路交通安全管理局(NHTSA)调查后认为,Riad 确实在事故发生时开启了 Autopilot 功能,但因为驾驶员需要始终对驾驶负责,因此不管开启与否,都需要对这起事故负责。


法庭记录显示,州检察官去年 10 月对 Riad 提出了指控,不过详细的文件直到最近才公布。 Riad 面对这些指控表示不认罪,并在案件调查期间获得保释。据悉,该起案件的初步听证会定于 2 月 23 日举行。

L2 辅助驾驶仍需人工监测和干预


根据汽车工程师协会的定义,自动驾驶技术一共分为六个级别:


  • L0:人类司机掌控所有驾驶功能;

  • L1:某种程度的驾驶辅助(可以是自适应巡航或路线保持/居中);

  • L2 :部分自动驾驶(同时具备自适应巡航和路线居中),但司机必须保持控制状态(手放在方向盘上,双眼注视路线,或者两者皆有);

  • L3:有条件的自动驾驶(特定条件下司机可以双手离开方向盘做自己的事情,但收到车辆提示时必须介入控制);

  • L4:高度自动驾驶(在特定场景下,如指定城市街道和/或校园道路上,司机不需要介入控制);

  • L5:完全自动驾驶(不需要人类介入控制)。


目前,市场上大多数自动驾驶汽车实际上都处于 L2 阶段,这个阶段的车辆主要是利用车载传感器收集车内外环境数据,为驾驶员提供危险预警等功能,实现部分自动化驾驶,一般可以提供自动泊车系统、紧急自动刹车、车身稳定系统、自动巡航、十字路口辅助、车道保持等功能。


这也意味着,司机在使用 L2 辅助驾驶时,必须不断监控道路并做好随时接管控制车辆的准备。而在不少自动驾驶引发的交通事故中可以发现,很多司机过度依赖 L2 辅助驾驶,疏忽大意,从而导致事故发生。另一方面,汽车厂商对于自动驾驶的过度营销也是悲剧发生的原因之一。一些自动驾驶汽车厂商在宣传时,过度营销无人驾驶,未明确提及相应危险,从而让用户陷入认知误区。


此前,特斯拉 Autopilot 软件负责人就曾对加州机动车管理局(DMV)表示,该公司 CEO 埃隆·马斯克一直以来都夸大了其高级驾驶辅助系统的能力。2021 年 3 月 9 日,加州 DMV 与特斯拉代表举行了电话会议,会议的备忘录显示:“马斯克所发布的推文,与工程现实不符。特斯拉目前处于 L2 级自动驾驶阶段。”所谓 L2 级,是指需要人工监测和干预的半自动驾驶系统。


正如特斯拉副总法律顾问 Eric Williams 此前所言,“Autopilot 和 FSD 都不是自动驾驶系统,目前没有任何一个系统可以让我们的车辆实现自动驾驶。”换句话说,特斯拉的测试版 FSD 只是名字让人联想到了自动驾驶而已。

自动驾驶汽车不像人那样“看世界”


2019 年, 特斯拉的 Autopilot 还不能及时识别红绿灯,虽然在 2020 年,Autopilot 在识别城市信号灯方面取得了关键进步,但自动驾驶系统(ADS)要想进一步提高自动化程度,必须要解决包括常识推理、计算机视觉系统在内的诸多问题,否则很可能会被一些人类能正常识别的情况愚弄。


例如,研究人员证明,限速标志的微小变化可能会让机器学习系统认为该标志显示的是 85 英里/小时而不是 35 英里/小时。类似的,一些黑客使用鲜艳的贴纸制造出假车道,欺骗特斯拉的自动驾驶改变车道。在这两种情况下,这些变化都愚弄了汽车,但愚弄不了人。


自动驾驶汽车看待世界的方式与人类存在很多差异,而这些差异引发的担忧远不止遭受黑客利用这一种。


虽然我们有充分的理由假设自动驾驶汽车将比人类驾驶更安全。毕竟它们从不疲倦,不会在开车时发短信,或酒后驾车。但同样,我们也有充分的理由假设它们不会更安全。

2022-01-20 14:113630

评论

发布
暂无评论
发现更多内容

架构师训练营第十一章作业

吴吴

Week11总结

leis

对于三千万攀登者来说,云是安全绳,是登山杖,是趋顶之路

脑极体

奈学:红黑树(RedBlackTree)的概述

古月木易

【Elasticsearch 技术分享】—— Elasticsearch 存储一条数据, put 过程是什么样子的?

程序员小航

Java elasticsearch 搜索 ES Lucene Elastic Search

系统高可用

陈皮

极客大学架构师训练营---习题

李朋

导致系统不可用的原因有哪些?

leis

合同、封条、电梯……通通上链!

CECBC

区块链技术 监管平台

区块链技术可提高数据可信性和安全性

CECBC

区块链技术 安全性

第11周 安全和高可用

陆不得

甲方日常1

句子

工作 随笔杂谈 日常

不可用与高可用

dongge

架构师培训 -11 安全、高可用

刘敏

图解 K8s 核心概念和术语

后端进阶

Docker Kubernetes 容器 云原生 k8s

架构师训练营——第11周作业

jiangnanage

week 11作业

Geek_z9dmvw

Java二进制和位运算,这一万字准能喂饱你

YourBatman

位运算 二进制

架构师课程第十一周总结

dongge

奈学:红黑树(RedBlackTree)的概述

奈学教育

AVL

架构师训练营第 11 周——练习

李伟

极客大学架构师训练营

Cause: java.sql.SQLTimeoutException: ORA-01013: user requested cancel of current

Java个体户

Druid

手写Spring框架之IOC

简爱W

架构师训练营第十一章作业

叮叮董董

week11 作业

雪涛公子

week11 总结

雪涛公子

LeetCode题解:20. 有效的括号,while循环replace,JavaScript,详细注释

Lee Chen

大前端 LeetCode

架构师训练营-第十一周-命题作业

sljoai

极客大学架构师训练营 命题作业 第十一周

《黑神话:悟空》出圈背后,国产3A游戏的技术新机

脑极体

架构师培训第十一周练习

小蚂蚁

架构师训练营——第11周学习总结

jiangnanage

特斯拉司机滥用L2辅助驾驶致两人死亡,被控过失杀人罪_安全_凌敏_InfoQ精选文章