人工智能可能在2040年前增加核战争的风险.doc

人工智能可能在2040年前增加核战争的风险.doc

ID:27841871

大小:151.50 KB

页数:6页

时间:2018-12-06

人工智能可能在2040年前增加核战争的风险.doc_第1页
人工智能可能在2040年前增加核战争的风险.doc_第2页
人工智能可能在2040年前增加核战争的风险.doc_第3页
人工智能可能在2040年前增加核战争的风险.doc_第4页
人工智能可能在2040年前增加核战争的风险.doc_第5页
资源描述:

《人工智能可能在2040年前增加核战争的风险.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、人工智能可能在2040年前增加核战争的风险  美国国防部副部长透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣,五角大楼已经准备在未来6个月内建成一个整合多个AI项目的新中心。于此同时,美兰德公司发布报告,警告说AI在军事任务中的应用可能增加核战争的风险。据美国非盈利新闻调查组织CPI的报道,美国国防部的第二把手上周二透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣。  美国国防部副部长、前波音公司高管PatrickShanahan表示,人工智能(使用计算机系统执行通常需要人

2、类智能的任务)可以帮助国防部更好地利用其收集的大量情报数据。  他还表示,AI可以用于加强军事后勤能力,在正确的时间为士兵和维修人员提供适当的零件和装备。AI也可以促进更明智的决策,为军方人员提供医疗服务,从而节省成本。  PatrickShanahan以及其他高级国防官员说,五角大楼已经准备在未来6个月内建成一个“卓越中心”(CenterforExcellence),将多个现有的与AI应用相关的军事计划整合在一起,为这项工作带来更多连贯性和动力。  在Shanahan向防务作家团体(DefenseWritersGroup)发表上述讲话的同一

3、天,兰德公司(RandCorporation)发布了一分公开报告,警告说AI在军事任务中的应用可能导致令人担忧的负面影响,包括:AI可能通过巧妙地破坏核威慑的一个关键根基,从而增加核战争的风险。兰德公司是美国的一个智库,主要为美国军方提供调研和情报分析服务。  兰德报告:人工智能可能在2040年前增加核战争的风险  这份新报告题为《人工智能可能如何影响核战争的风险》(HowmightArtificialIntelligenceAffecttheRiskofNuclearWar),报告指出,AI具有破坏核安全基础的“巨大潜力”。这个严峻的结论是

4、兰德组织的一系列研讨会得出的,参与该研讨会的人员包括AI、核安全、政府和军方的专家。这是兰德公司Security2040项目的一部分,旨在评估AI以及其他现金计算在未来20年里对核安全的影响。针对这一报告的结论,兰德正在呼吁国际社会就此进行对话。    这一讨论的核心是核威慑的概念,即保证“相互保证毁灭”(MAD)或“保证报复”(assuredretaliation),防止一方对有同等武装的对手发射其核武器。这是一种冷酷、计算式的逻辑,至少在我们经历过的历史阶段,它至少阻止了一场全面的核战争,让理性的、自我保护的大国选择了对抗冷战。只要没有一

5、个核力量维持有重大的先发制人的能力,MAD的概念就仍占据主导地位;如果一个武器系统能够在第一次攻击中幸存下来,并以同等的力量回击,那么“保证报复”就仍然有效。但是如果一方失去了反击的能力,或者即使它开始认为它有失去这种能力的风险,这样的体系就可能削弱并变得不稳定。  这个方程式鼓励国家行为者避免采取可能破坏当前地缘政治平衡的行为,但是,正如我们在过去几十年里一再看到的那样,核大国仍欲图“先发制人”。例如,隐形轰炸机、核潜艇的发展,以及最近俄罗斯总统弗拉基米尔·普京(VladimirPutin)展示的“无敌”弹道导弹。  值得庆幸的是,这些发展

6、都没有真正地结束超级大国在第一次打击后的反击能力,但正如兰德的新报告指出的那样,先进的人工智能技术与无人机、卫星以及其他强大的传感器等监视技术相结合,可以削弱这种促使微妙的冷战平衡得以保持的技术平衡。该报告称,人工智能将通过对敌方安全基础设施实行大规模监控,发现人眼看不到的模式,揭示其破坏性的漏洞,从而实现这一目的。  报告作者之一,兰德公司的一名工程师AndrewLohn说:“这可不仅是电影里的场景,如果我们不加以小心,很简单的事情就可能引发紧张局势,将我们带到危险的局面。”  一个暴露着的敌人突然意识到它很容易遭受“先发制人”,或者意识到

7、它可能很快就会失去反击的能力,将陷入一个非常不利的位置。这种情况可能会迫使处境不利的国家寻找能够恢复平衡的方法,它的行动可能会变得像被逼到角落里的金刚狼一般。先进的人工智能可能导致一个充满不信任、竞争的新时代,孤注一掷的核大国会愿意承担灾难性的、甚至毁灭性的风险。  令人不安的是,即将失去“保证毁灭”可能会导致所谓的预防性战争,即一场以阻止敌方获取攻击能力为目的的战争。例如,在第一次世界大战前的几年中,德国严重担忧作为其竞争对手的俄罗斯开始成为重要的地区强国。德国专家预测,俄罗斯将能够在20年内在武装冲突中击败德国,这引发了一场预防性战争。而

8、在二战结束后不久,美国的一些思想家,包括哲学家伯特兰·罗素和数学家约翰·冯诺伊曼,呼吁在苏联发展自己的核弹之前,对苏联实施先发制人的核打击。  正如这些例子所显示的

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。