特斯拉自动驾驶不靠谱,发生事故只需1/8秒,且不会留下任何痕迹

电科技袁创10-17 13:11

伴随着技术的发展,汽车驾驶辅助系统不断迭代,安全性逐渐提高,但辅助驾驶系统的可靠性还远没有完善。近日,有研究人员表示,通过入侵互联网广告牌,就可以诱使特斯拉的自动驾驶系统采取紧急制动、停车或者转弯等动作。

图片1.png 

以色列的本·古里安大学一直在对迷惑自动驾驶系统的“鬼影”图像进行试验。

简单来说,一些图像可以迷惑自动驾驶和辅助驾驶系统,只需要营造瞬间的光线投影,让系统注意到不存在的物体即可,比如一个停车指示牌。

图片2.png 

该研究最早的演示,是把路标和人影投射到路面上。只需要几毫秒的图像,就可以误导高级辅助驾驶系统了。据悉,当黑客黑入某些数字广告牌之后,黑客可以通过令广告牌显示特定内容,引导汽车发生事故,并且不会留下任何明显痕迹,至少不会被司机注意到。

图片3.png 

研究人员表示,针对的是特斯拉的Autopilot和MobileEye 630系统,前者会对0.42秒的虚假影响作出反应,对后者只需要1/8秒就够了。

电科技专注于TMT领域报道,青云计划、百+计划获得者。荣获2013搜狐最佳行业自媒体人称号、2015中国新媒体创业大赛总决赛季军、2018百度动态年度实力红人等诸多大奖。

投稿请登录:http://www.diankeji.com/member
商务合作请洽:marketing#diankeji.com

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。