欢迎来到天天文库
浏览记录
ID:20591489
大小:618.52 KB
页数:13页
时间:2018-10-14
《2018北京高考语文试卷-含答案.pdf》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、绝密★本科目考试启用前2018年普通高等学校招生全国统一考试语文(北京卷)本试卷共10页,150分。考试时长150分钟。考试务必将答案答在答题卡上,在试卷上作答无效。考试结束后,将本试卷和答题卡一并交回。一、本大题共7小题,共23分。阅读下面的材料,完成1-7题。材料一当年,科学技术的巨大进步推动了人工智能的迅猛发展,人工智能成了全球产业界、学术界的高频词。有研究者将人工智能定义为:对一种通过计算机实现人脑思维结果,能从环境中获取感知并执行行动的智能体的描述和构建。人工职能并不是新鲜事物。20世纪中叶,‚机器思维‛就已出现在这个世界上。1936年,英国数学家阿兰·麦席森
2、·图灵从模拟人类思考和证明的过程入手,提出利用机器执行逻辑代码来模拟人类的各种计算和逻辑思维过程的设想。1950年,他发表了《计算机器与智能》一文,提出了判断机器是否具有智能的标准,即‚图灵测试‛。‚图灵测试‛是指一台机器如果能在5分钟内回答由人类测试者提出的一系列问题,且超过30%的回答让测试者误认为是人类所答,那么就可以认为这机器具有智能。20世纪80年代,美国哲学家约翰.希尔勒教授用‚中文房间‛的思维实验,表达了对‚智能‛的不同思考。一个不懂中文只会说英语的人被关在一个封闭的房间里,他只有铅笔、纸张和一大本指导手册,不时会有画着陌生符号的纸张被递进来。被测试者只能
3、通过阅读指导手册找寻对应指令来分析这些符号。之后,他向屋外的人交出一份同样写满符号的的答卷。被测试者全程都不知道,其实这些纸上用来记录问题和答案的符号是中文。他完全不懂中文,但他的回答是完全正确的。上述过程中,被测试者代表计算机,他所经历的也正是计算机的工作内容,即遵循规则,操控符号。‚中文房间‛实验说明,看起来完全智能的计算机程序其实根本不理解自身处理的各种信息。希尔勒认为,如果机器有‚智能‛,就意味着它具有理解能力。既然机器没有理解能力,那么所谓的的‚让机器拥有人类智能‛的说法就是无稽之谈....了。在人工智能研究领域中,不同学派的科学家对‚何为智能‛的理解不尽相同
4、。符号主义学派认为‚智能‛的实质就是具体问题的求解能力,他们会为所设想的的智能机器规划好不同的问题求解路径,运营形式推理和数理逻辑的方法,让计算机模仿人类思维进行决策和推理。联结主义学派认为‚智能‛的实质就是非智能部件相互作为的产物,在他们眼里人类也是一种机器,其智能来源于许多非智能但半自主的组成大脑的物质间的相互作用。他们研究大脑的结构,让计算机去模仿人类的大脑,并且用某种教学模型去重建一个简化的神经元网络。行为主义学派认为‚智能‛的实质是机器和人类的行为相似,研究人工智能应该研究人类感知和行动的本能,而不是高级的逻辑推理,不解决基本问题就无法实现复杂的思维模拟。因而
5、他们让计算机模仿人的行为,建立人工智能系统。时至今日,研究者们对‚智能‛的理解仍未形成共识。但是,正是对‚何为智能‛这个核心问题的不断思考和解答,推动了人工智能技术在不同层面的发展。(取材于谭营等人的文章)1.下列对材料一第一段“人工智能”定义的理解,正确的一项是(3分)A.人工智能是对一种智能体的描述和构建。B.人工智能是能感知行动的智能体。C.人工智能是计算机对环境的描述和构建。D.人工智能是对计算机思维的实现。2.根据材料一,下列说法正确的一项是(3分)A.数学家图灵提出了用机器来模拟人类行为的设想。B.“图灵测试”提出了机器是否具有智能的判断标准。C.“中文房间
6、”实验是为了证明计算机无法理解中文。D.图灵和希尔勒全都认为计算机是可以拥有智能的。3.根本材料一,下列理解不符合文意的一项是(3分)A.符号主义学派认为“智能”表现为解决具体问题的思维能力。B.联结主义学派和符号主义学派都认为应研究人类大脑的结构。C.行为主义学派主张应把人类感知和行动的本能作为研究的内容。D.三个学派对“智能”的理解不同,因而他们的研究思路也不同。材料二2018年5月,谷歌Duplex人工智能语音技术(部分)通过了‚图灵测试‛。这个消息进一步引发了人们对于人工智能的思考:当机器人越来越像人,我们应该怎样做?在人工智能的开发过程中,设计者会遇到伦理问题
7、的挑战。比如著名的‚隧道问题‛:一辆自动驾驶的汽车在通过黑暗的隧道时前方突然出现一个小孩,面对撞向隧道还是撞向行人这种进退维谷的突发情况,自动驾驶汽车会怎么做?....自动驾驶汽车依靠的是人工智能‚大脑‛,它会从以往案例数据库中选取一个与当前情景较相似的案例,然后根据所选案例来实施本次决策。当遇到完全陌生的情景时,汽车仍然会进行搜索,即在‚大脑‛中迅速搜索与当前场景相似度大于某个固定值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于那个值,自动驾驶汽车将随机选择一种方式处理。那么,如果自动驾驶汽车伤害了人类,谁来负责呢?
此文档下载收益归作者所有