在 Uber 无人车撞死行人后(详见硅发布报道《英伟达股票暴跌8%, Uber特斯拉自动驾驶相继发生死亡命案》,美国公众舆论对自动驾驶的质疑声达到顶点。以下是自动驾驶行业深度投资者、投资了 Uber、谷歌 Waymo 和特斯拉的 Jason Calacanis 写的自动驾驶行业呼吁。来看下 Calacanis 观点,以下是硅发布翻译简写。
所有这些事故,我们有庞大数据库,其中两起,我们有视频,并且我们有 Uber 无人车撞死行人事件的司机视频。
中国(特斯拉 Autopilot):你可以看下面的事故视频:辅助驾驶状态中的特斯拉撞上一辆高速上正处于停车状态的扫路卡车的尾部。基于视频信息,司机有充分的时间可以避开扫地车。最后,究竟是为什么一辆扫路车不开车灯、不打尾闪地停在超车道上,它背后也没有任何安全的车来提醒过往司机,注意这个车是静止的还是在缓慢移动的呢?
亚利桑那州(完全自动驾驶):目前分析这次事故还太早,但根据司机视频(放出了 10 秒钟),事故发生时,人类司机可能正在低头玩手机。
上个月,自动驾驶史上发生了悲惨而可怕的一刻:事故死亡者不是“自愿”选择使用自动驾驶技术(在这个案例里,被撞死的是行人,下一次,也可能是普通汽车的司机)。
之前几次自动驾驶死亡事故则都不同。
第一次:2016 年 5 月 7 日,佛罗里达州,一辆特斯拉司机使用特斯拉辅助驾驶技术 Autopilot 时遭遇车祸,司机丧生。需要强调的是:辅助驾驶概念常常被与完全自动驾驶(Self-driving)相混淆。
自那时起,另两起事故发生时特斯拉辅助驾驶技术 Autopilot 也处于开启状态:一起是发生在 2016 年 1 月 20 日的中国;另一起是今年 3 月 23 日湾区的特斯拉 Model X 车祸。
这 4 次事故,4 种独立案例下,两种不同口味的自动驾驶技术(辅助驾驶与完全自动驾驶),事件共同点是:驾驶员都有过失。或更进一步讲:自动驾驶这项技术被误用,甚至被滥用了。
我是自动驾驶的坚定支持者和投资者。
自动驾驶领域的三个主要玩家:特斯拉、Uber 和谷歌旗下的 Waymo,我都有投资。其中两家,我通过智能投顾平台 Wealthfront “robo-portfolio” 下盲注。而当 Uber 还在种子轮融资时,我投资了它。
我自己也有两辆特斯拉的车:Model X 和 Model 3,我用特斯拉系统 Autopilot 累计行驶超过 2 万英里。
我几乎每天都在 101 高速上用 Autopilot,这是最近一起自动驾驶死亡事故发生的地方。但注意我的说法:是——“自动驾驶死亡事故”,而不是“自动驾驶致死事故”,这是不同的。
因为在所有和特斯拉 Autopilot 有关的三个死亡事故案例里,(我没有对死者不敬的意思),驾驶员们,似乎都有可能误用,甚至滥用了该技术。
湾区特斯拉事故现场,Tesla Model X 整个车头已经没了
所有这些事故,我们有庞大数据库,其中两起,我们有视频,并且我们有 Uber 无人车撞死行人事件的司机视频。
以下是我们对四次车祸的情况了解。
佛罗里达(特斯拉 Autopilot):司机开启了辅助驾驶,但超速行驶,速度比最高限速还要高 9 英里,当卡车从他面前驶过时,司机有 7 秒钟时间刹车。但他没有刹车,这意味司机要么整整 7 秒钟都在发呆,要么他没办法实施刹车。多份报道指出:司机车内发现 DVD 播放器,而卡车司机称:撞击发生后,车内的 DVD 仍在播放《哈利波特》。
2016 年佛罗里达州,发生 Model S 与卡车相撞事故
中国(特斯拉 Autopilot):你可以看下面的事故视频:辅助驾驶状态中的特斯拉撞上一辆高速上正处于停车状态的扫路卡车的尾部。基于视频信息,司机有充分的时间可以避开扫地车。最后,究竟是为什么一辆扫路车不开车灯、不打尾闪地停在超车道上,它背后也没有任何安全的车来提醒过往司机,注意这个车是静止的还是在缓慢移动的呢?
中国,特斯拉 Model S 事故
山景城(特斯拉 Autopilot):特斯拉在事故发生后很快发布了一个悲惨消息:事故发生时,Model X 司机忽视了辅助驾驶系统让他把手放在方向盘上的警告。此外,车子正在超速,并把车距设置为 1 车长(最小值),按理说最好是 7 车长(最大值)。按特斯拉说法:系统曾多次警告司机切换成手动驾驶,司机有 5 秒钟时间避开前方高速路况的隔离带,但他没有采取行动。
湾区特斯拉事故现场,Tesla Model X 整个车头已经没了
亚利桑那州(完全自动驾驶):目前分析这次事故还太早,但根据司机视频(放出了 10 秒钟),事故发生时,人类司机可能正在低头玩手机。
我们在一段时间内不会知道答案,但视频只放出了几秒,也就是说,事故其实还有两种可能:第一,被付钱雇来开 Uber 无人车的人类司机,当时没有违反法律,而是及时踩住了刹车;另一种可能:自动驾驶技术无法处理当时情况,也就是说技术失败了。如果技术确实失败了(这是一个很大的假设),那么这次事件将以一个“边缘案例”收尾,即技术和处于安全状态的人类司机都失败了。
但不管是什么情况,我们必须面对和解决的问题是:所有这四个司机(3 个使用辅助驾驶,1 个使用完全自动驾驶)在事故中都被证实了一点——他们忽视了路面行车情况。
如何解决辅助驾驶的问题?
有人谴责特斯拉用 “Autopilot” 这个词作为自己辅助驾驶系统的名字(“Autopilot” 中文意思是“自动驾驶”),认为它给天真的用户一种错误的安全感。
作为有两辆特斯拉车的车主,我可以告诉你:这个系统(荒谬地)地表示:上路时,你不能把双手离开方向盘,并且如果你完全忽视,那么整个行程会瘫痪。
然后实际情况呢?聪明人总以为自己能承担更多风险,并且有时聪明人做的决定会糟糕到不可思议,比如开车时看电影,或者把眼睛从路面离开 5 秒钟。
我想不到有任何办法能实质性地避免这种情况,我估计,就算把每个司机强制性地拉去上一堂无人驾驶的安全教育课,并签署免责协议,也很难阻止某人故意滥用技术。就像本田,永远不会费力气去阻止摩托车手做各种蠢事(因为知道无济于事),像在车流中快速穿行、将前轮拉离地面,YouTube 上甚至有这些蠢事的合集。
该如何测试完全自动驾驶的汽车?
那么我们该如何进行完全自动驾驶的测试呢?为了大规模地树立信心,我们应该要求每辆完全自动驾驶的测试车里有 2 名司机,一左一右,所有自动驾驶的测试都这样。
两个司机间的互动,有助于消除一个司机测试自动驾驶的无聊感。
飞机就被设计为由一名飞行员操纵,但两名飞行员运行检查表能增加一大堆好处,他们能互相支持以防突发事件,就算得多花钱,这也非常值得。
两位飞行员驾驶可以减少错误操作
在这种试验中,不需要省钱。我们需要改善技术的边缘案例,这样才能对自动驾驶树立信心,在这种情况下,两个司机最好每一小时更换一下座位,以保证测试人员的新鲜感和投入感。
这是自动家驾驶行业可以做出的一个简单让步,以避免测试因争议和攻击而不能再继续——事实上很多人都相信,如果悲惨死亡事故再发生,自动驾驶测试就真不能继续了。
死亡事故的其他原因
一般来说,车祸死亡事故的主要原因是超速、不系安全带和驾驶时分心。所有这些问题,都可以通过科技和执法结合的方式很容易解决,但限速器问世已经几十年,技术便宜、可用,我们却很少被要求安装它。
根据我读的研究:当加拿大安大略省要求卡车加装限速器时,车祸频率戏剧性地下降了 25-73%。
如果想减少交通事故死亡人数,最快的途径就是让监管机构今年在所有车辆上加装固定好了最高速度的调节器,无论其所在州或区的最高限速是多少。
也可以立刻在法规上提高对超速的惩罚。想象一下:如果你超速 20 英里或 30%,无论有没速度调节器,你的车将被扣留一个月;如果你第二次被抓,你的车将被卖掉,所得钱全捐给车祸受害者。
类似高惩罚,也可以用在人们经常不够重视的司机驾驶分心情况。
如果一个人失去他的车一个月或者更久,他的行为马上会起变化。当然,这种措施有点极端,但这就是为什么我要这么说:作为一个社会,我们有能力改变法律,以及重新审视我们对待由来已久的传统做法,比如超速。
目前为止,我对新闻界和公众对这些悲惨死亡的反应印象深刻。我们没有反应过度,并且我希望我们能花一点时间考虑大局——在如何实现“道路零死亡”问题上,以新的眼光看待这一问题的所有角度。
责任编辑:向宜芳