站长之家 - 业界 2022-06-19 15:01

特斯拉“骚操作”引巨大质疑:车祸前1秒 Autopilot 自动退出

近日,美国官方部门NHTSA发布的一份文件,将特斯拉再次推上了风口浪尖上,甚至有网友用史诗级”来形容这次调查的发现。

据量子位”报道,美国高速公路安全管理局(NHTSA)在曝光的文件中,有一句话显得格外醒目:Autopilot aborted vehicle control less than one second prior to the first impact.(在撞击前不到 1 秒钟,Autopilot 中止了对车辆的控制。)

许多网友就纷纷展开了质疑:如此设计,特斯拉就可以否认事故是因为 Autopilot 了?

据悉,去年,有不少车主投诉称,特斯拉在开启自动驾驶系统 Autopilot 的情况下,闯入事故现场,撞上停在路边的急救车、警车或者事故车辆。

NHTSA从去年8月份就已经对此展开调查,NHTSA调查发现,在 16 起这样的事故中,在碰撞发生之前,大多数车辆的 Autopilot 都激活了前向碰撞警告(FCW)。

随后大约一半车辆的自动紧急制动(AEB)也进行了主动干预。不过最后都失败了(有一人不幸死亡)。

可怕的是,平均而言,这 16 起事故中,Autopilot 都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。

目前,调查仍在继续当中,特斯拉也没有对此事做出进一步的解释说明。而NHTSA 提醒,目前市面上没有完全自动驾驶的汽车,每辆车的都要求驾驶员在任何时间都要处于控制状态,所有州的法律都要求驾驶员对其车辆的操作负责。”

推荐关键词

24小时热搜

查看更多内容

大家正在看