无人驾驶发生第一起命案 美监管部门调查特斯拉
Model S
凤凰科技讯 北京时间7月1日消息,据《连线》网络版报道,一辆开启Autopilot半自动驾驶功能的特斯拉Model S电动 汽车 与一辆拖车相撞,司机在事故中丧生。这也是与自动驾驶有关、造成人员伤亡的首起交通事故。
这次交通事故发生在佛罗里达州威利斯顿一个十字路口,时间是5月7日。特斯拉今天表示,“Autopilot和司机都没有注意到拖车的白色侧面,因此ModelS刹车系统没有启动”,Model S钻到拖车下方。
美国国家公路交通安全管理局(以下简称“NHTSA”)已经派遣特别事故调查组调查涉事车辆和事故现场,NHTSA缺陷调查办公室计划审查Autopilot系统设计和性能。NHTSA发表声明称,启动调查“不应当被解读为NHTSA认为被调查车辆存在缺陷”。
特斯拉发表博文称,司机已经利用Autopilot行驶1.3亿英里(2.1亿公里)。Autopilot利用雷达、相机、超声波传感器,确保车辆不会偏离车道,保持与前后车辆的距离。
特斯拉称,默认状态下Autopilot没有开启,司机在确认Autopilot尚处于测试状态后才能激活它。司机被要求手不离开方向盘,随时准备控制汽车。特斯拉称,“我们采取这些措施的目的是确保用户在使用Autopilot时的安全性。”它认为,即使Autopilot不够完美,“数据也表明Autopilot能减轻司机工作量,大幅提高行车安全性”。
尽管如此,出现交通事故是不可避免的。去年10月15日,特斯拉通过一款软件更新包激活了Autopilot,数天内就有大量用户发布使用Autopilot的疯狂举动视频,其中包括驾车时坐在后排座椅和睡觉。不久前,3人驾驶一辆Model S,开启Autopilot,在不到58小时内横穿美国,时速最高达90英里(145公里)。
这次交通事故引发了无人驾驶的责任问题:造成人员伤亡谁负责?特斯拉可能把Autopilot描述为一种安全系统,能提高司机的警惕性,但许多司机似乎认为它属于能完全控制汽车的无人驾驶系统。
虽然没有法律对无人驾驶汽车“说不”,但对无人驾驶汽车的监管还十分模糊。南加州大学法学院技术专家布赖恩特·沃克·史密斯(BryantWalker Smith)去年说,“一旦出现事故,大量法律灰色地带使得企业可以逃避责任。”但是,出问题后监管机构会介入。
这起造成车毁人亡的交通事故,也突显了大多数汽车厂商在推出半自动驾驶系统方面持谨慎态度的原因。例如,卡迪拉克1月份宣布推迟推出Supercruise。卡迪拉克发言人大卫·考德威尔(DavidCaldwell)当时说,“只有真正成熟后,新技术才会被应用在量产车型中。我们不会为赶时间而推出新功能,也不会拿客户当试验品。”(编译/霜叶)
想看更多国外有意思的、新奇的科技新闻?那就来扫码关注外言社(微信号:ifengwys)的官方微信吧。