AI 前线导读:无人驾驶汽车是下一代汽车的方向,各大车企都在尽其所能抢占高地。但是有没有人想过,如果无人驾驶汽车在路上遇到路怒症、加塞族该怎么办呢?如果让无人驾驶汽车遵循机器人三定律,但是那个品行很差的人类驾驶员一个劲逼停,或者刻意调戏,要怎么应对呢?特别是在中国(中国驾驶员素质之差在世界是出了名的),这画面真的不敢想象呀!因此,我们非常有必要教会无人驾驶汽车怎么和路怒加塞族打交道。
一组研究人员最近发现,人类驾驶员和自动驾驶汽车都倾向于优先考虑自己车辆的安全性,而不是周围车辆的安全性。人类是自私的,人工智能的行为很像人类,这意味着两者的解决方案是一样的:我们需要学习一些礼貌。
将人类行为自动化的想法感觉有点蠢,特别是涉及到重型机械,且生命受到威胁时。例如,我们可不想让这些机器模仿我们的“路怒症”:一辆半挂货车因为被截停而“发怒”的画面会让人联想到电影《火魔战车》(Maximum Overdrive)。
但我们确实希望机器能够模仿人类对突发事件作出反应的能力。有报道详细记录了 Tesla 的自动驾驶软件(Tesla Autopilot,初衷并非用来取代人类驾驶员)未能识别出大型卡车的事件,因为它面向的方向是计算机没有预料到的,而且这辆卡车被涂刷成了白色。但大多数人类驾驶员并不会犯这种同样的错误。
AI 前线注:可参阅《US authorities conclude last year’s fatal Tesla crash was mostly human error》( http://u6.gg/en7Ns )
那么,有没有什么折衷的办法?我们该如何让无人驾驶汽车不仅比我们更擅长驾驶,还能更好地应对人类在道路上的不完美行为?据加州大学伯克利分校的研究人员称,我们改变了他们的动机。
在最近发表的一篇白皮书《Courteous Autonomous Cars》( http://u6.gg/en7Yf )中,该研究团队称:
我们认为,那些自私的机器人只关心自己安全和驾驶质量,这还不够。它们也应该礼让其他司机。这一点非常重要,因为人类并非完全理性,他们的行为会受到机器人汽车的攻击性的影响。
我们主张机器人应该在尽量减少给其他司机带来的不便之间取得平衡,我们可以将其他司机由于机器人行为捕捉到人类非理性行为而导致驾驶成本增加归结为不便。
要解决这个问题,答案似乎很简单,就是用 Asimov 的机器人三定律来解决:始终给予人类通行权。但是,人们很容易想明白这点其实行不通。
正如我们之前提到的,人类是自私的。一旦我们发现自动驾驶汽车在保护人类方面总是犯错,我们就会轻易利用它们,更详细地说,是利用它们的奖励机制,这样我们就可以一直抢道、超车。在一个到处都是无人驾驶汽车的世界里,人类驾驶员永远是优先考虑的问题,这就意味着,至少从理论上来讲,乘坐无人驾驶汽车总是更慢一些,效率也低一些。
根据研究人员的说法:
在预测人类计划并对其做出反应的方法中,自私并不是一个问题,因为这导致了保守的机器人总是试图为人类让路,让人们做他们想做的事情。
但是,当我们转向最新的方法,利用游戏理论方面的相互作用,我们的汽车会开始变得更有进攻性。它们把人挡在外面,或者在十字路口前寸步前进。虽然这种行为有时是好的,但我们不希望看到这种行为一直发生。
基本上,机器人汽车只要避开障碍,并始终把门开着,就永远不会到达任何地方。而那些试图最大化实现“目标”的“奖励”的机器人,随着它们收集更多的驾驶数据——比如人类——可能会变得更加激进。因此这两种方案,看起来都不是最优的。
为了解决这个问题,研究人员提出了一种方法来测量和量化一些人类驾驶员所采用的“礼貌”机制。毕竟,我们并不是总在大街上对着手机尖叫。
这种工作方式是这样的:研究人员使用算法对人类驾驶员和自动驾驶汽车的潜在动作进行成本 / 效益分析。他们考虑了人类驾驶员与无人驾驶汽车交互时的三种不同的情景:
- 如果没有机器人汽车,人类能够做什么?
- 如果机器人汽车只是在那里帮助人类的话,人类可以做什么?
- 如果机器人汽车继续做以前做的事情,人类可以做什么?
该研究团队将这些场景转换为计算机能够理解的数学语言,剩下的由算法来完成。从本质上讲,他们已经定义并量化了“礼貌”,还找到了一种方法,让人工智能在优化训练期间考虑“礼貌”。研究人员正在教会人工智能如何在进攻性和被动型寻找一个合适的平衡点,而不是全部或者完全没有。这应该能使机器人更容易处理人类在驾驶时所发生的非理性的事情。
这项工作目前尚处于早期阶段,但是,在不加剧我们试图解决的问题的前提下,如何整合机器人和人类驾驶员,还有很长的路要走。
原文链接: Researchers teach autonomous cars to deal with irrational human
感谢陈利鑫对本文的审校。
评论 1 条评论