自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc

自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc

ID:28131999

大小:429.50 KB

页数:9页

时间:2018-12-08

自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc_第1页
自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc_第2页
自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc_第3页
自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc_第4页
自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc_第5页
资源描述:

《自动驾驶行业深度投资者对自动驾驶行业的呼吁.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、自动驾驶行业深度投资者对自动驾驶行业的呼吁  在Uber无人车撞死行人后,美国公众舆论对自动驾驶的质疑声达到顶点。以下是自动驾驶行业深度投资者、投资了Uber、谷歌Waymo和特斯拉的JasonCalacanis写的自动驾驶行业呼吁。来看下Calacanis的观点。  上个月,自动驾驶史上发生了悲惨而可怕的一刻:事故死亡者不是“自愿”选择使用自动驾驶技术(在这个案例里,被撞死的是行人,下一次,也可能是普通汽车的司机)。  之前几次自动驾驶死亡事故则都不同。  第一次:2016年5月7日,佛罗里达州,一辆特斯拉司机使用特斯拉辅助驾驶技术Autopilot时遭遇车祸,司机丧生。需要强调的

2、是:辅助驾驶概念常常被与完全自动驾驶(Self-driving)相混淆。  自那时起,另两起事故发生时特斯拉辅助驾驶技术Autopilot也处于开启状态:一起是发生在2016年1月20日的中国;另一起是今年3月23日湾区的特斯拉ModelX车祸。  这4次事故,4种独立案例下,两种不同口味的自动驾驶技术(辅助驾驶与完全自动驾驶),事件共同点是:驾驶员都有过失。或更进一步讲:自动驾驶这项技术被误用,甚至被滥用了。    Uber无人车撞死行人后警方公布的第一个视频  我是自动驾驶的坚定支持者和投资者。  自动驾驶领域的三个主要玩家:特斯拉、Uber和谷歌旗下的Waymo,我都有投资。其

3、中两家,我通过智能投顾平台Wealthfront“robo-portfolio”下盲注。而当Uber还在种子轮融资时,我投资了它。  我自己也有两辆特斯拉的车:ModelX和Model3,我用特斯拉系统Autopilot累计行驶超过2万英里。  我几乎每天都在101高速上用Autopilot,这是最近一起自动驾驶死亡事故发生的地方。但注意我的说法:是——“自动驾驶死亡事故”,而不是“自动驾驶致死事故”,这是不同的。  因为在所有和特斯拉Autopilot有关的三个死亡事故案例里,(我没有对死者不敬的意思),驾驶员们,似乎都有可能误用,甚至滥用了该技术。    湾区特斯拉事故现场,Te

4、slaModelX整个车头已经没了  所有这些事故,我们有庞大数据库,其中两起,我们有视频,并且我们有Uber无人车撞死行人事件的司机视频。  以下是我们对四次车祸的情况了解。  佛罗里达(特斯拉Autopilot):司机开启了辅助驾驶,但超速行驶,速度比最高限速还要高9英里,当卡车从他面前驶过时,司机有7秒钟时间刹车。但他没有刹车,这意味司机要么整整7秒钟都在发呆,要么他没办法实施刹车。多份报道指出:司机车内发现DVD播放器,而卡车司机称:撞击发生后,车内的DVD仍在播放《哈利波特》。    2016年佛罗里达州,发生ModelS与卡车相撞事故  中国(特斯拉Autopilot):

5、你可以看下面的事故视频:辅助驾驶状态中的特斯拉撞上一辆高速上正处于停车状态的扫路卡车的尾部。基于视频信息,司机有充分的时间可以避开扫地车。最后,究竟是为什么一辆扫路车不开车灯、不打尾闪地停在超车道上,它背后也没有任何安全的车来提醒过往司机,注意这个车是静止的还是在缓慢移动的呢?  中国,特斯拉ModelS事故  山景城(特斯拉Autopilot):特斯拉在事故发生后很快发布了一个悲惨消息:事故发生时,ModelX司机忽视了辅助驾驶系统让他把手放在方向盘上的警告。此外,车子正在超速,并把车距设置为1车长(最小值),按理说最好是7车长(最大值)。按特斯拉说法:系统曾多次警告司机切换成手动

6、驾驶,司机有5秒钟时间避开前方高速路况的隔离带,但他没有采取行动。    湾区特斯拉事故现场,TeslaModelX整个车头已经没了  亚利桑那州(完全自动驾驶):目前分析这次事故还太早,但根据司机视频(放出了10秒钟),事故发生时,人类司机可能正在低头玩手机。  我们在一段时间内不会知道答案,但视频只放出了几秒,也就是说,事故其实还有两种可能:第一,被付钱雇来开Uber无人车的人类司机,当时没有违反法律,而是及时踩住了刹车;另一种可能:自动驾驶技术无法处理当时情况,也就是说技术失败了。如果技术确实失败了(这是一个很大的假设),那么这次事件将以一个“边缘案例”收尾,即技术和处于安全状

7、态的人类司机都失败了。  但不管是什么情况,我们必须面对和解决的问题是:所有这四个司机(3个使用辅助驾驶,1个使用完全自动驾驶)在事故中都被证实了一点——他们忽视了路面行车情况。  如何解决辅助驾驶的问题?  有人谴责特斯拉用“Autopilot”这个词作为自己辅助驾驶系统的名字(“Autopilot”中文意思是“自动驾驶”),认为它给天真的用户一种错误的安全感。  作为有两辆特斯拉车的车主,我可以告诉你:这个系统(荒谬地)地表示:上路时,你不能把双手离开

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。