特斯拉自动驾驶不靠谱?发生事故只需1/8秒

电科技
关注

伴随着技术的发展,汽车驾驶辅助系统不断迭代,安全性逐渐提高,但辅助驾驶系统的可靠性还远没有完善。近日,有研究人员表示,通过入侵互联网广告牌,就可以诱使特斯拉的自动驾驶系统采取紧急制动、停车或者转弯等动作。

以色列的本·古里安大学一直在对迷惑自动驾驶系统的“鬼影”图像进行试验。

简单来说,一些图像可以迷惑自动驾驶和辅助驾驶系统,只需要营造瞬间的光线投影,让系统注意到不存在的物体即可,比如一个停车指示牌。

该研究最早的演示,是把路标和人影投射到路面上。只需要几毫秒的图像,就可以误导高级辅助驾驶系统了。据悉,当黑客黑入某些数字广告牌之后,黑客可以通过令广告牌显示特定内容,引导汽车发生事故,并且不会留下任何明显痕迹,至少不会被司机注意到。

研究人员表示,针对的是特斯拉的Autopilot和MobileEye 630系统,前者会对0.42秒的虚假影响作出反应,对后者只需要1/8秒就够了。

作者:袁创来源:电科技

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存