写点什么

马斯克又双叒叕食言背后:自动驾驶汽车为何长期身陷「慢车道」?

  • 2022-04-08
  • 本文字数:3783 字

    阅读完需:约 12 分钟

马斯克又双叒叕食言背后:自动驾驶汽车为何长期身陷「慢车道」?

多年以来,马斯克多次承诺自动驾驶汽车即将到来


事实证明,自动驾驶汽车的底层技术极难完善。就算是备受期待的特斯拉也没能跨越这道障碍。


特斯拉公司 CEO 埃隆·马斯克曾在今年 1 月放出豪言,“如果我们今年年内还不能让自动驾驶汽车的安全性超越人类,那简直是见了鬼了。”


问题是,他已经不是第一次做此承诺了。2020 年,他就表示要在年内实现自动驾驶汽车,还强调“目前已经不存在核心难题。”再往前一年,2019 年他曾承诺特斯拉会在 2020 年之前实现自动驾驶,甚至打造一支由百万辆“机器人汽车”组成的出租车队。其实从 2014 年开始,他每年都会做出类似的预测。


从 2020 年底开始,特斯拉开始将自家“全自动驾驶”(FSD)的 Beta 测试版开放给约 6 万名特斯拉车主。除了接受安全测试,这些车主还得花 12000 美元才能获得首批特权——纯纯的“冤种”了属于是。客户们将率先体验自动驾驶辅助技术,并帮助特斯拉在全面发布该功能前做出调整和改进。


亚利桑那州立大学风险创新实验室主任 Andrew Maynard 表示,随着测试版的推出,特斯拉明显走上了软件企业的常规路线——让用户亲自发现问题。“但区别在于,软件崩溃只会导致计算机重启;而汽车碰撞却可能造成重大伤亡。”


而且纵观整个自动驾驶汽车行业,还没有其他哪家公司敢把这种半成品技术交给普通客户。以 Alphabet 旗下的 Waymo、通用汽车支持的 Cruise 以及自动驾驶初创公司 Aurora 为例,他们只会安排操作员在预定路线上开展技术测试。


虽然此举增强了特斯拉在车主群体中的号召力,但意外事故也在透支该公司的声誉。自从向车主开放以来,FSD 凭借一系列无脑操作让全世界看到了当前自动驾驶技术的笨拙和莽撞。


其中一段视频显示,一辆处于 FSD 模式的汽车急速撞向迎面而来的另一辆车,对方被迫直直冲下路肩。另一辆汽车则反复试图开上火车铁轨并撞向行人。还有一段视频显示,系统突然提示需要接管、搞得司机手忙脚乱。去年 11 月,美国国家公路交通安全管理局(NHTSA)收到第一项由 FSD 引发的交通事故——无人受伤,但车辆已经“严重受损”。


根据特斯拉 FSD 用户、Snow Bull Capital 公司 CEO Taylor Ogan 的说法,FSD 特别擅长在高速公路上驾驶。但在较为复杂的市区街道上,FSD 系统的表现往往难以预测。


持续软件更新应该可以逐步消除故障,例如 NHTSA 已经强制要求特斯拉禁止系统在停车标志前“缓慢通过、而非完全停稳”。而说起另一个大问题“意外制动”,Ogan 表示 FSD 虽然一直在更新,“但情况并没有改善,它只是更自信地做出更加疯狂的举动。”


在 Maynard 看来,FSD 这位“新手司机”还是经验太浅,一旦遇到没见过的情景、往往就会当场崩溃。例如,它不知道不该快速掠过行人身旁,对于没见过的系船桩也会一头撞上去。此外,特斯拉的 Autopilot 软件也出现过类似的问题——由于汽车没能“发现”停放在路边的应急车辆,该软件目前已经至少造成 12 起事故(导致 1 人死亡、17 人受伤)。


当然,我们也知道网上流传的视频一般比较极端。特斯拉目前最不缺的就是死忠粉,任何关于 FSD 愚蠢行为的消息都会受到严重冲击。在特斯拉车主俱乐部论坛上,一切批评帖子都会被喷得体无完肤,用户们似乎自发组成了特斯拉亲卫队。Ogan 感叹,“人们不想承认自己向特斯拉交了钱、但用的却是个残次品,所以会抓住一切机会替特斯拉说话。”


于是特斯拉就有了巨大的回旋余地。《一场闹剧:关于特斯拉汽车的真实故事》的作者 Ed Niedermeyer 回忆道,他在报告特斯拉内情时“遭到一大帮网民的口诛笔伐”。也正因为如此,马斯克才能肆无忌惮地一次又一次食言,而粉丝们对特斯拉的感情却丝毫不减。

全自动驾驶汽车的进展为何始终不达预期?

在自动驾驶上栽跟头的当然不只特斯拉。


Cruise、Waymo、丰田和本田都曾表示要在 2020 年之前推出全自动驾驶汽车。虽然取得一定进展,但却始终达不到预期目标。这究竟是怎么回事?


Thatcham Research 研究主管 Matthew Avery 认为,“最重要的一点,就是自动驾驶的难度远超车厂们的想象。”虽然约 80%的自动驾驶功能相对易于实现——也就是让汽车沿着车道行驶、保持单侧前行、避免撞车之类——但余下的 20%才是关键。其中 10%属于更复杂的场景,例如环岛和复杂路口,“而最后 10%则几乎不可能解决,比如有头牛一动不动地站在路中间。”


这 20%、特别是最后 10%,成了卡住整个汽车行业的噩梦。总结来讲,这部分场景代表的就是“极端状况”,即路上鲜有发生、但却影响巨大的事件。突然跑过的孩子、路政临时设起的屏障、一群挥舞标语的抗议者,还有前面提到的那头顽强的牛,都可能让自动驾驶软件无所适从。


自动驾驶汽车依赖的仍然是最基础的编码规则组合,例如“看到红灯必须停车”,再辅以一部分机器学习软件。机器学习算法能够吸纳大量数据以“学习”驾驶技巧。但由于极端状况在数据集中极少出现,所以汽车自然不知道该如何做出响应。


但极端状况甚至并没有那么罕见。圣达菲研究所计算机科学家兼复杂性教授 Melanie Mitchell 表示,“对单个司机来说,这些状况确实很少出现。但如果对全球所有驾驶者者平均,就会发现每时每刻都有人遇到此类问题。”


人类有着强大的推理能力,可以把类似的经验转移到从未见过的情况上;但自动驾驶系统明显不行,即使是稍有变化也可能使其手足无措。这就带来了新的、至今没有答案的问题:我们难以赋予 AI 系统常识,因为连我们自己都说不清常识是如何发挥作用的。


马斯克本人也曾在 2019 年的推文中隐隐提到过这一点,“只要先解决 AI 领域的一个重大难题,无监督、通用型全自动驾驶才有可能成为现实。”也正是因为 AI 领域未能取得突破,所以能够与人类水平相媲美的自动驾驶汽车才始终无法出现。


也有一些开发商打算使用高清地图——即明确绘制道路、人行道线、交通标志的位置及限速等——解决这个问题。但这些地图需要不断更新才能跟上持续变化的道路状况,而且即使如此,其中仍然存在很多不可预测的因素。


卡耐基梅隆大学电气与计算机工程副教授 Philip Koopman 指出,自动驾驶汽车的主要问题在于,这种技术会“非常自信”地采取行动,从而令极端状况变得更为复杂。2018 年,Uber 的一辆原型实验车就与正骑自行车穿过马路的 Elaine Herzberg 相撞,导致后者死亡。而当时身在车上的安全操作员目睹了软件对 Herzberg 这个目标的判断——“车辆”、“自行车”、“其他”……嘭!

自动驾驶最终目标:超越人类智能、比人驾驶更安全

自动驾驶汽车制造商的最终目标,是开发出比人类水平更高、安全性更强的车辆。在美国,每 1 亿英里行驶里程就会对应 1 人死亡(包括酒驾情况)。Koopman 强调,开发商必须超越这样的水平,才能证明自动驾驶技术比人类更安全。他同时提到,业界目前使用的某些指标,例如脱离率(即司机需要多久介入一次才能防止事故发生),事实上忽略了安全驾驶中最重要的问题。


Koopman 认为,“安全涉及的并不是正常行驶下的场景,而是那些非正常条件下的状态。合格的自动驾驶技术必须能在 99.999999999%的场景下正常起效,目前的技术仍在保障前几个 9,而越到后面、改进就越困难。”


也有专家认为,自动驾驶技术商并不一定要彻底脱离人类智能。Mitchell 就提到,“我认为如果每辆车都在自动驾驶、每条道路都有明确的秩序,那自动驾驶技术应该会更可靠、更值得信赖。只是很遗憾,自动驾驶面对的是 AI 与人类混杂的现实,这样的复杂度超出了 AI 的承受极限。”


在理想条件下(例如人烟稀少的街道和晴朗的天气),自动驾驶汽车的表现还算不错。Waymo 甚至已经能够在亚利桑那州凤凰城的部分地区开展无人出租车服务。但即使有远程操作员的协助,这支车队还是发生过一些小事故,例如同一辆车好几次被一组雪糕桶卡住。(但 Waymo 公司高管称,人类司机也经常出现类似的情况。)


尽管面临挑战,但自动驾驶行业并非就此止步。不过很遗憾,Uber 的退出也掀起一波弃坑浪潮。在 Uber 致人死亡负面新闻的笼罩下,多家厂商先后叫停试验,Lyft 也紧随其后卖出了自己的自动驾驶部门。


但 2022 年,新的希望再次升起。过去十年间投入的上千亿美元,让整个行业不可能停止前进的脚步。


汽车制造商通用、吉利以及自动驾驶开发商 Mobileye 共同表示,消费者最早在 2024 年就能买到全自动驾驶汽车。Cruise 和 Waymo 也计划今年内在旧金山推出商用机器人出租车业务。Aurora 也有意在未来两到三年内,在美国本土部署全自动驾驶汽车。

监管缺失是全球性问题

但不少安全专家担心如此雄心勃勃的计划缺少监管机构的督导。Koopman 认为,目前每家企业都相当于有一次“免费撞车额”。美国的监管体系会默认开发商安全可信,只在发生严重事故后才被动介入。在他看来,Uber 和初创公司 Pony.ai 都是现实案例,双方都是先拿到了自动驾驶测试许可、并在引发严重事故后才被叫停。


而特斯拉早早把技术开放给客户的行为,也已经引发了监管机构的注意。截至目前,特斯拉用这种方式回避了种种严苛的自动驾驶管控要求,例如上报碰撞、系统故障并指派训练有素的专业人员担任测试者。为此,加利福尼亚州政府正考虑修改制度,阻止这种明显相当危险的“众包式”测试方案。NHTSA 也已经开始对特斯拉进行调查。


可以肯定的是,目前全球范围内对于自动驾驶技术的监管仍然严重缺失。Maynard 认为,问题在于“自动驾驶软件能否快速成熟,确保在引发极端事故、迫使开发商大批退出之前,就发展到既可靠又能够接受监管机构督导的程度。”换言之,如果达不到这样的改进节奏,自动驾驶也许只会是一场曾经触手可及的幻梦。


原文链接:


https://www.theguardian.com/technology/2022/mar/27/how-self-driving-cars-got-stuck-in-the-slow-lane


2022-04-08 14:552979
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 532.2 次阅读, 收获喜欢 1976 次。

关注

评论

发布
暂无评论
发现更多内容

消息队列数据存储表设计

随欣所遇

架构训练营5期

模块八作业:设计消息队列存储消息数据的 MySQL 表格

炎彬

「架构实战营」

Canal 如何实现数据库库事务的一致性

爱好编程进阶

Java 面试 后端开发

Elasticsearch Query DSL概述与查询、过滤上下文

爱好编程进阶

Java 面试 后端开发

消息队列存储消息数据的mysql表设计

五月雨

架构实战营 「架构实战营」

git(7)自定义 Git

爱好编程进阶

Java 面试 后端开发

【模块八】设计消息队列存储消息数据的MySQL 表格

yhjhero

#架构训练营

Gitlab Java API 使用示例

Java gitlab 4月月更

JAVA 序列化、反序列化以及serialVersionUID

爱好编程进阶

Java 面试 后端开发

Java7日期时间API

爱好编程进阶

Java 面试 后端开发

Java中高级核心知识全面解析——Linux基本命令

爱好编程进阶

Java 面试 后端开发

DDD领域驱动设计实战-分层架构及代码目录结构

爱好编程进阶

Java 面试 后端开发

Hibernate和MyBatis的区别比较

爱好编程进阶

Java 面试 后端开发

模块8-设计消息队列存储消息数据的 MySQL 表格

卡西毛豆静爸

#架构实战营

ELK + Filebeat + Kafka 分布式日志管理平台搭建

爱好编程进阶

Java 面试 后端开发

JavaWeb快速入门--Servlet(2)

爱好编程进阶

Java 面试 后端开发

Java中的复用类

爱好编程进阶

Java 面试 后端开发

【国产化替代专题】星环科技春季新品发布周

星环科技

市场进展不断,STI 包括ZB等一系列上线预示着什么?

西柚子

消息队列存储消息数据的 MySQL 表格设计

李大虾

#架构实战营 「架构实战营」

JavaWeb之Cookie和Session技术(四)

爱好编程进阶

Java 面试 后端开发

week6作业

Asha

DNS解析时发现域名和IP不一致,访问了该域名会如何(大厂真题

爱好编程进阶

Java 面试 后端开发

HashMap + 软引用进行缓存

爱好编程进阶

Java 面试 后端开发

商业分析:SheIn是怎样成功的?

石云升

跨境电商 商业分析 4月月更

Alibaba2021年船新Java架构师成长笔记开源

爱好编程进阶

Java 面试 后端开发

架构训练营模块八

刘帅

GitOps多环境部署问题及解决方案

俞凡

研发效能 gitops

统计代码耗时的工具

Rubble

4月日更 4月月更

Flink处理函数实战之三:KeyedProcessFunction类

爱好编程进阶

Java 面试 后端开发

JAVA 短链码生成工具类

爱好编程进阶

Java 面试 后端开发

马斯克又双叒叕食言背后:自动驾驶汽车为何长期身陷「慢车道」?_AI&大模型_AI前线小组_InfoQ精选文章