自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc

自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc

ID:28131634

大小:532.00 KB

页数:9页

时间:2018-12-08

自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc_第1页
自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc_第2页
自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc_第3页
自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc_第4页
自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc_第5页
资源描述:

《自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨  自动驾驶的不断发展,也加大了我们对未来的担忧和伦理探讨。毕竟在高速行驶的汽车上,一旦面对最糟糕的结果选择,人类并不信任机器能做出合适的判断。  7月初,李彦宏在百度AI开发者大会上实现了“吹过的牛B”,L4级自动驾驶商用车阿波龙的商业化量产,成为自动驾驶领域最新的重磅新闻。  同时发布的还有AI芯片“昆仑”,李彦宏也对“昆仑”不惜溢美之词,声称其能在100W的功耗上实现260Tops性能。可以预见,无论被视为一套系统的自动驾驶技术,还是其中作为“驾驶员”这个关键决策

2、角色的AI技术,将以超出公众想象的速度快速迭代进化。  但也引起更多对未来的担忧和伦理探讨。毕竟在高速行驶的汽车上,一旦面对最糟糕的结果选择,人类并不信任机器能做出合适的判断。    推理至上与快速迭代  众所周知,L4级被视为自动驾驶的一个关键节点,AI全面接管驾驶工作,人类对驾驶行为的干预不再是必须而实时的。  昆仑芯片在自动驾驶场景中,最重要的工作就是根据传感器数据,满足训练和推断的需求,根据路况不断预测未来0.1-10秒的路面局势变化,这是高等级自动驾驶独特的能力。  换言之,只有经过训练的强AI才能独立处理未知局

3、势。  例如谷歌的AlphaGo,在CPU之外采用了用于评估局面的4TPU。实际上是卷积神经网络的应用。它的分支有两个:价值和策略。不必每一步都穷举到最后,它就能推断每一步的价值和对最终获胜的影响。  按照谷歌首席工程师的说法,在任何一步,AlphaGo都会准确预测如何能赢。  这不是在跳大神,而是自我监督下的AI展现出强大的推理和预测能力。如果采用云端算法,很可能实现强AI。  现在的AlphaGo,已经没有任何一个活着的人类可以匹敌了。它拥有40层神经网络和“足够视野的前瞻性”,能够看到未来的危险和价值,并采取最优策略

4、。    尽管因为应用场景只局限于园区等固定区域,阿波龙的L4级自动驾驶仍有争议,但在开放道路上的L4级自动驾驶,强化AI是其中最可能的途径。它可以避免优步在今年早些时候、在凤凰城路测发生的悲剧。  此前,在量产车上搭载的行车电脑ECU可以做之前人类才能做的事。在它的指挥下,自动变速箱轻松换挡。在高速行驶中遇到变道行驶或侧风、路面倾斜等外部干扰时,驾驶人可以自如操纵方向。低速转弯时前后轮转动方向相反,可以轻松通过以前需要多次转弯才能通过的小弯。  如何满足不知满足的人类呢?AI需要超越现有人类认知水平和能力,如同围棋比赛中

5、那样,被惊倒的人们自然将王冠奉上,并日益依赖更聪明的AI。    通用AI的再进化  如果计算机有情感,它会发现人类的推理能力实在是弱爆了。逻辑的层级和旁路拓展多到一定地步,人类就无法记住众多的信息和它们彼此的关联,更别提放在一起分析了。  但人类也有AI无法企及的地方,人类的直觉值得肃然起敬,并善于将复杂问题简化,然后用直观判断的方式直趋答案。隐藏的信息是否足以支持做出精准的判断?虽然不总是正确,但这样耗费的时间和精力都是可接受的。我们放弃了一些表象,捕捉隐含信息(学术上称为“次表征”),从而追求更快地解决问题。  人们

6、期待计算机的“思考”方式能够模拟大脑结构。但是,无论谷歌的TPU,还是百度的昆仑,都只能针对限定输入给出结论。  如果围棋的棋盘变成20×19,人类棋手稳赢,而AlphaGo则可能不知所措。如果道路标线模糊不清,AI可能选择让汽车停下来,而人类驾驶员则可以大致“循迹”行驶,基本不受影响。  那么如何让计算机看起来不那么蠢呢?  这样的AI必然立足于“机器学习”。本地算法无法涵盖所有路况,设计者必须赋予无人驾驶系统一定的自主权,避免在特殊路况下该系统不知所措。和人类一样,计算机仍然要先搜集大量数据样本,也就是各种

7、路况下的驾驶行为,就像人类也需要反复练习驾驶技能,锻炼预见性和形成固定的肌肉记忆。  机器学习,实际上是将人类学习过程“外化”。选择合适的模型,让模型学习样本,从而找出数据的内在规律,从而形成对未知路况的“经验”。  面对复杂外界条件,AI仍然需要基本的预设应对策略。在人类无法厘清复杂的因果关系时,不需要也无法为AI设立先决条件和成熟策略。事实证明,机器学习,更善于从海量数据中抽象出若干有价值的因素,同时确定因素之间的相关性。从而确立应对策略。    比如,在城市快速路上行驶的驾驶员,主观上对突然出现的行人缺乏预期,因为法

8、律上禁止行人穿行。AI也同样很难从样本中学到,如何在封闭道路上应对突然出现的障碍。  这也就是“逾规则”状态下的应对能力。理论上,自动驾驶系统的传感器(比如激光雷达)可以比人类驾驶员更早地发现违规行人,即环境感知。  假设行人采取不明智的做法,如加速奔跑、快速从车前穿行等。人类驾驶员如果发现刹车距离不够

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。