写点什么

特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题

  • 2020-06-02
  • 本文字数:2010 字

    阅读完需:约 7 分钟

特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题

马斯克最近很忙,火箭刚刚升天的喜悦之情还未褪去,这边,特斯拉汽车却翻车了。

事件回溯

6 月 1 日,据媒体报道,一辆特斯拉 Model 3 行驶在台湾高速公路上时,直接撞向一辆翻倒在公路上的大卡车。事发时车辆中只有司机一人,所幸没有造成人员伤亡。


根据道路上的视频监控画面显示,事发时天气晴朗,司机视野良好。在卡车翻倒在地时卡车司机站在一旁的隔离带上等待救援,当卡车司机看到特拉了汽车直奔卡车冲过来没有丝毫减速时,卡车司机还试图向特斯拉驾驶员挥手致意,但即便如此,特斯拉轿车也没有及时刹住车,直直撞向了卡车。



事发后,当地媒体对事故发生的原因进行了探究,据警方介绍:“司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在了 110 公里/小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上。”

又是自动驾驶惹的祸?

特斯拉的事故车 Model 3 目前能支持 L3 级别的自动驾驶,L3 级别的自动驾驶要求驾驶员随时做好接管汽车的准备。在特斯拉的官网上,同样注明了其 Auto Pilot 属于辅助驾驶功能,车主的手不能脱离方向盘,且注意力需要集中在驾驶上。


如果分析技术层面的原因,从事发视频可以看到,在距离故障车很远一段距离内没有任何遮挡物,但特斯拉事故车依旧没有对故障车做出任何反应,速度丝毫没有减慢。很明显,特斯拉的 Auto Pilot 系统没有识别出倒在前方路面上的卡车,可能是因为传感器的识别不到位,没有判断出前方是障碍车,也可能是因为系统融合欠佳,导致未根据传感器的反馈做出正确决策。


此前,AI 前线针对自动驾驶/定速巡航可能的失控原因对自动驾驶技术专家进行了采访,他表示:


对于自动巡航系统,最简单的巡航需要感知车速,并且控制汽车发动机风门、喷油,形成负反馈循环。如果车速传感器,风门控制,油喷还有引擎控制器出问题,都有可能造成失控。但是汽车并不是简单的负反馈机制,还有很多工程上的设计让系统失效的时候,回到一个安全状态,所谓的 fail-safe 设计。所以并不是随便一个部件故障就会让巡航失控的,即使巡航出了问题,任何加油,刹车或者手动操作都可以退出巡航状态。所以巡航失控的可能性是非常小的。


自动驾驶涉及的方面太多了,巡航涉及的控制只是车速的变化,自动驾驶对车的控制包含了车速、转向、刹车等,传感器至少有激光雷达 Lidar、摄像头和卫星定位系统,如北斗和 GPS,为了乘客舒适度和车身稳定,还有惯性加速度传感器、三维陀螺仪等传感器。而中间的处理单元就更加复杂了,涉及计算机视觉,实时操作系统,高清晰地图,精准定位等多个方面。我们都知道,一个没有足够容错设计的复杂系统更加容易出故障。比如西雅图华盛顿大学的 Yoshi 教授就创造了一种可以欺骗自动驾驶的方法,只用几个即时贴,就可以让自动驾驶的计算机视觉系统,误以为一个停车标志是一个限速牌,从而造成事故。而从计算机安全的角度来说,传感器越多,计算机越容易被传感器的输入欺骗,造成失控。所以各种视觉欺骗、激光照射、对传感器数据的改变,都可能造成自动驾驶的失控。

自动驾驶安全问题频出,应该如何应对?

对于行人和乘客来说,自动驾驶最重要的就是安全性。当计算机技术进入以自动驾驶汽车,联网医疗设备等为代表的物联网时代,也标志了计算机开始在真实世界替人类做出很多至关重要的决策。这个时候,除了以前的编程模式,必须在系统中引入攻击者模型。换句话说,就是要让系统拥有抵抗黑客攻击的能力。


技术专家曾分析说:自动驾驶除了要考虑到车在正常情况下的加速减速制动导航,也得考虑到各种复杂的情况,比如道路障碍:行人、动物、其他车辆、特殊路况如冰雪、路牌缺失等等。容易解决的技术问题是那些我们知道的,不容易解决的技术问题是那些我们未知的,最困难的问题,是那些我们不知道我们不知道的,比如说攻击者会对汽车和车载计算机网络进行什么样的攻击?


据了解,目前全球各大车厂都在考虑这些问题,并且在车辆的设计中引入更好的安全机制。计算机安全领域的专家们也加入了这些工作组,在保卫车主和行人的安全。

结语

事实上,这不是特斯拉第一次在自动驾驶问题上“栽跟头”。


早在 2016 年,特斯拉的两起自动驾驶致死事故,让特斯拉很长一段时间陷入在自动驾驶安全性无法保障的质疑中。据《纽约时报》报道,2016 年 1 月 20 日,在中国邯郸一高速路段,一辆驾驶特斯拉 S 的司机在事故中丧生,中央电视台对此事进行了报道。车中的行车记录仪显示,该车以左车道以公路行驶速度行驶时撞上一辆道路清扫车,当时特斯拉处于自动驾驶状态。


此后不久,2016 年 5 月,特斯拉在美国佛罗里达又发生一起车祸事故。在此事故中,自动驾驶仪的雷达和摄像头无法识别出明亮天空背景下的白色货车,也没有迹象表明司机或自动驾驶仪在与一辆牵引式挂车相撞前采取制动措施。


目前的 L3 级别的自动驾驶虽然声明了需要人为控制,但还是有很多人在驾驶中不集中注意力,这是一场对人性的考验,除非我们所期盼的“完全自动驾驶”时代到来,否则人依旧是驾驶中的最主要决定者。


2020-06-02 15:042801
用户头像
李冬梅 加V:busulishang4668

发布了 990 篇内容, 共 596.1 次阅读, 收获喜欢 1150 次。

关注

评论

发布
暂无评论
发现更多内容

Docker学习路线3:安装设置

小万哥

Docker 容器 后端 开发 开发程序员

生成式AI的发展、应用及影响 | 社区征文

Dec

年中技术盘点

新兴技术的影响与展望:生成式AI及更多思考|社区征文

小诚信驿站

年中技术盘点

阿里云Redis与Tair压力测评

WizInfo

go 实现ringbuffer以及ringbuffer使用场景介绍

蓝胖子的编程梦

TCP 网络 epoll ringbuffer 环形缓冲区

从0到100:定制公交预约小程序开发笔记

CC同学

2023世界人工智能大会,和鲸科技入选中国信通院《2023大模型和AIGC产业图谱》

ModelWhale

人工智能 数据科学 大模型 AIGC 世界人工智能大会

IT行业都在用哪些进度跟踪工具

爱吃小舅的鱼

IT 项目管理软件 项目进度管理

小度全屋智能携大模型应用惊艳亮相中国建博会,智慧体验演绎未来家居新标准

新消费日报

C++中map的使用方法

芯动大师

机器学习洞察 | 挖掘多模态数据机器学习的价值

亚马逊云科技 (Amazon Web Services)

机器学习

你信不信,只要学几天javascript就可以使用纯原生实现五星评分效果 【附完整代码】

Geek_yx5md7

JavaScript 前端开发 函数 前端基础 DOM操作

从0-100:约拍小程序开发笔记

CC同学

和鲸数据科学专家平台正式成立,凝聚专家资源推进产业数字化升级

ModelWhale

人工智能 数据科学 专家平台 专家资源

企业是如何做到持续规划的?

智达方通

全面预算管理 持续规划 年度计划流程

图加速数据湖分析-GeaFlow和Hudi集成

TuGraphAnalytics

数据湖 图计算 Hudi 数据湖分析 GeaFlow

没收入是表象,UMU CEO李东朔的出海经验:第一年破100国家

B Impact

AIGC 对程序员的影响 | 社区征文

sidiot

AI AIGC 年中技术盘点

2023-07-12:RocketMQ如何做到消息不丢失?

福大大架构师每日一题

福大大架构师每日一题

你需要知道的Symbols

不在线第一只蜗牛

前端 symbol

UINO优锘科技受邀在2023全球数字经济大会数字孪生赋能城市数字化转型论坛发表演讲

ThingJS数字孪生引擎

数字化转型 智慧城市 数字孪生 #web3D ThingJS

倒计时 2 天|请收好 Kyligence 用户大会参会指南

Kyligence

数据分析 指标平台

代码随想录 Day14 - 二叉树(一)

jjn0703

代码随想录 Day15 - 二叉树(二)

jjn0703

从0到1:垃圾上门回收预约小程序开发笔记

CC同学

初识滴滴交易策略之一:交易市场

滴滴技术

算法 滴滴技术

特斯拉再次翻车,把火箭送上天的马斯克,还是解决不了自动驾驶安全问题_大数据_李冬梅_InfoQ精选文章