近日,密歇根大学的研究人员通过研究人类的步态、身体对称性和脚的位置,试图教会自动驾驶汽车识别和预测行人的移动,其精确度要高于目前已有的技术。
车辆通过摄像头、激光雷达和全球定位系统收集的数据使研究人员能够捕捉到行人移动的视频片段,然后在计算机模拟中进行三维再现。在此基础上,他们创造了一个“生物力学启发下的循环神经网络”,用来记录人类的运动。
有了它,自动驾驶系统可以在距离车辆大约 50 码的位置,预测一个或几个行人的姿势和之后要移动到的位置。
虽然这类研究在行业中早已有人做过,但是之前的研究通常只关注静态图像,而并不关心人们如何在三维空间中移动,密歇根大学机械工程助理教授 Ram Vasudevan 说:“如果这些无人车要在现实世界中运行和互动,我们需要确保对行人走向的预测与车辆下一步走向的预测不一致。”
为车辆配备必要的预测能力要求网络深入研究行人运动的细节,比如:步态的节奏(周期性)、四肢的镜像对称性,以及走路时脚的位置对稳定性的影响。
许多用于将自动技术提升到目前水平的机器学习都是处理二维图像,即静态照片。一台电脑显示了数百万张停车标志的照片,最终将教会系统在现实世界和实时中识别停车标志。
但是通过利用几秒钟的视频片段,密歇根大学的 U-M 系统就可以通过片段的前半部分来做出预测,然后用后半部分来验证准确性。
为了解释神经网络可以做出的推断,助理教授 Ram Vasudevan 描述了一种常见的景象。Vasudevan 说:“如果行人在玩手机,他们的姿势和所看的地方可以告诉你很多关于注意力的信息,这些信息也会告诉你他们下一步会做什么。”
结果表明,这种新系统提高了无人驾驶汽车识别未来最有可能发生情况的能力。
“我们预测的中,位平移误差在 1 秒后约为 10 厘米,6 秒后小于 80 厘米。所有其他的同类比较方法的误差都在 7 米之外。”研究员 Johnson-Roberson 说:“我们更擅长搞清楚一个人下一步会去哪里。”
为了控制预测下一个动作的选项的数量,研究人员应用了人体的物理约束条件:行人不能飞或者步行可能达到的最快速度。
为了创建用于训练 U-M 神经网络的数据集,研究人员将一辆具有 4 级自主功能的汽车停在了几个十字路口。由于车辆的摄像头和激光雷达正对着十字路口,系统可以一次记录多天的数据。
研究人员从实验室采集的传统姿势数据集中,对现实世界里“野外”的数据进行了支持。其结果是,该系统将提高自动驾驶汽车的能力。
密歇根大学研究工程师杜晓晓(音译)表示:“我们对各种应用持开放态度,并提供令人兴奋的跨学科合作机会,我们希望创造并贡献一个更安全、更健康、更高效的生活环境。”
参考链接:
https://news.umich.edu/teaching-self-driving-cars-to-predict-pedestrian-movement/
评论