特斯拉自动驾驶被控虚假宣传,马斯克:我们是根据航天工业命名的,错哪了?

  德国法院禁止特斯拉宣传”自动驾驶”,称其是在误导消费者,对此,马斯克发推文提出了异议。

  特斯拉被控自动驾驶是虚假宣传,马斯克回应

  近日,德国法院禁止特斯拉在其网站及其他广告中使用带有“Autopilot” 或“自动驾驶全部潜在功能”的字眼,特斯拉 CEO 马斯克对此提出了异议。

  在推文中,马斯克表示:“特斯拉 Autopilot 是根据航天工业使用的术语命名的,那 AutoBahn(德国高速公路)要怎么解释?

特斯拉自动驾驶被控虚假宣传,马斯克:我们是根据航天工业命名的,错哪了?

  德国关注反竞争行为的行业组织 Wettbewerbszentrale 将此案提交给了德国法院,称特斯拉使用的这些术语或字眼在高级驾驶辅助系统方面误导了公众。

  特斯拉汽车上搭载了 Autopilot 高级驾驶员辅助系统,这种系统可以帮助车辆完成自适应巡航控制和车道转向。Autopilot 功能最强大、最高级的版本被称为“完全自动驾驶(Full Self-driving),简称 FSD”,它包括自动泊车功能、可以引导汽车从高速路进入或驶出匝道以及变道的主动导航系统。该系统现在也能识别和响应交通信号灯。

  不过,特斯拉汽车并不是自动驾驶汽车,因为该系统需要一名人类驾驶员始终保持工作状态。

  Wettbewerbszentrale 还指出,特斯拉在其网站上的声明中暗示,到今年年底,自动驾驶将在城市街道上运行,然而,这种暗示曲解了一些事实——特斯拉自动驾驶的一些功能在德国并不合法。

  慕尼黑法院同意了这一说法。

  虽然目前马斯克并不同意该说法,但尚不清楚他是否会要求特斯拉提起上诉。特斯拉方面暂未发表任何官方声明,也未回应置评请求。

  特斯拉自动驾驶“翻过的车”

  今年 6 月 1 日,据媒体报道,一辆特斯拉 Model 3 行驶在台湾高速公路上时,直接撞向一辆翻倒在公路上的大卡车。事发时车辆中只有司机一人,所幸没有造成人员伤亡。

  根据道路上的视频监控画面显示,事发时天气晴朗,司机视野良好。在卡车翻倒在地时卡车司机站在一旁的隔离带上等待救援,当卡车司机看到特拉了汽车直奔卡车冲过来没有丝毫减速时,卡车司机还试图向特斯拉驾驶员挥手致意,但即便如此,特斯拉轿车也没有及时刹住车,直直撞向了卡车。

特斯拉自动驾驶被控虚假宣传,马斯克:我们是根据航天工业命名的,错哪了?

  事发后,当地媒体对事故发生的原因进行了探究,据警方介绍:“司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在了 110 公里 / 小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上。”

  事实上,这不是特斯拉第一次在自动驾驶问题上“栽跟头”。

  早在 2016 年,特斯拉就曾发生过两起自动驾驶致死事故,让特斯拉很长一段时间陷入在自动驾驶安全性无法保障的质疑中。据《纽约时报》报道,2016 年 1 月 20 日,在中国邯郸一高速路段,一辆驾驶特斯拉 S 的司机在事故中丧生,中央电视台对此事进行了报道。车中的行车记录仪显示,该车以左车道以公路行驶速度行驶时撞上一辆道路清扫车,当时特斯拉处于自动驾驶状态。

  此后不久,2016 年 5 月,特斯拉在美国佛罗里达又发生一起车祸事故。在此事故中,自动驾驶仪的雷达和摄像头无法识别出明亮天空背景下的白色货车,也没有迹象表明司机或自动驾驶仪在与一辆牵引式挂车相撞前采取制动措施。

  在台湾高速公路的事故中,特斯拉的事故车 Model 3 宣称能支持 L3 级别的自动驾驶,L3 级别的自动驾驶要求驾驶员随时做好接管汽车的准备。在特斯拉的官网上,同样注明了其 Auto Pilot 属于辅助驾驶功能,车主的手不能脱离方向盘,且注意力需要集中在驾驶上。

  此前,AI 前线针对自动驾驶 / 定速巡航可能的失控原因对自动驾驶技术专家进行了采访,他表示:

对于自动巡航系统,最简单的巡航需要感知车速,并且控制汽车发动机风门、喷油,形成负反馈循环。如果车速传感器,风门控制,油喷还有引擎控制器出问题,都有可能造成失控。但是汽车并不是简单的负反馈机制,还有很多工程上的设计让系统失效的时候,回到一个安全状态,所谓的 fail-safe 设计。所以并不是随便一个部件故障就会让巡航失控的,即使巡航出了问题,任何加油,刹车或者手动操作都可以退出巡航状态。所以巡航失控的可能性是非常小的。

  自动驾驶涉及的方面太多,巡航涉及的控制只是车速的变化,自动驾驶对车的控制包含了车速、转向、刹车等,传感器至少有激光雷达 Lidar、摄像头和卫星定位系统,如北斗和 GPS,为了乘客舒适度和车身稳定,还有惯性加速度传感器、三维陀螺仪等传感器。而中间的处理单元就更加复杂了,涉及计算机视觉,实时操作系统,高清晰地图,精准定位等多个方面。我们都知道,一个没有足够容错设计的复杂系统更加容易出故障。比如西雅图华盛顿大学的 Yoshi 教授就创造了一种可以欺骗自动驾驶的方法,只用几个即时贴,就可以让自动驾驶的计算机视觉系统,误以为一个停车标志是一个限速牌,从而造成事故。而从计算机安全的角度来说,传感器越多,计算机越容易被传感器的输入欺骗,造成失控。所以各种视觉欺骗、激光照射、对传感器数据的改变,都可能造成自动驾驶的失控。

  马斯克:特斯拉有望今年底实现 L5 级自动驾驶

  在刚刚结束的世界人工智能大会上,马斯克还表示对于未来 L5 级别的自动驾驶非常有信心,并认为很快就会实现。

特斯拉已经非常接近 L5 级别自动驾驶了,我有信心在今年完成 L5 级别自动驾驶的基本功能。我认为实现自动驾驶 L5 级目前不存在底层根本的挑战,但是有很多细节的问题。我们面临的挑战就是要解决所有这些小问题,然后整合系统,持续解决长尾问题。你会发现可以处理大多数场景的情况,但是又会不时出现一些奇怪的情况,你必须有一个系统来训练解决这些奇怪的场景。所以,你需要有现实的场景,没有什么比现实更复杂,任何模拟的都是现实世界复杂性的子集。目前我们专注于应对 L5 级自动驾驶的细节问题,我们非常有信心这是可以实现的。我们可以利用特斯拉现在的硬件,只需要改进软件,就可以实现 L5 级别的自动驾驶。

  如今看来,L3 级自动驾驶尚未得到所有人的信任,L5 级的上路时间恐怕要缓缓了。

  参考链接:

  https://techcrunch.com/2020/07/14/elon-musk-rails-against-german-court-decision-on-tesla-autopilot-terminology/

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注