北京一零一中2015—2016学年度第二学期高二期末试卷

北京一零一中2015—2016学年度第二学期高二期末试卷

ID:35113303

大小:229.50 KB

页数:13页

时间:2019-03-18

北京一零一中2015—2016学年度第二学期高二期末试卷_第1页
北京一零一中2015—2016学年度第二学期高二期末试卷_第2页
北京一零一中2015—2016学年度第二学期高二期末试卷_第3页
北京一零一中2015—2016学年度第二学期高二期末试卷_第4页
北京一零一中2015—2016学年度第二学期高二期末试卷_第5页
资源描述:

《北京一零一中2015—2016学年度第二学期高二期末试卷》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、最专业的K12教研交流平台北京一零一中2015—2016学年度第二学期高二期末试卷2016.7语文本试卷共8页,共120分,考试时间为120分钟,考生务必将试题的答案全部答在答题纸上,在试卷上作答无效。考试结束后,将答题纸和作文纸一并交回。一、本大题共4小题,共9分。阅读下面材料,完成1—4题。材料一提起“人工智能”,人们总是想到科幻小说或电影里的虚构情节。其实,在日常生活中我们已经每天都在使用人工智能了,只是可能没意识到而已。把人工智能等同于机器人是常见的误解。机器人只是人工智能的容器,这个容器不见得非得是人形。如果说人工智能是大脑的话,机器人就是身体,这个身体不一定

2、是必需的。比如智能手机里的语音助手,控制它的软件和数据就是人工智能,它发出的说话声音是这个人工智能的拟人化体现,但是语音助手本身并没有机器人的外形。人工智能是个广义的概念。从手机里的计算器到无人驾驶汽车,再到未来可能改变世界的重大变革,都属于人工智能的范畴。人工智能分为三类。擅长某方面单一功能的叫弱人工智能。例如有可以战胜国际象棋世界冠军的人工智能,但它只会下象棋,你若问它明天的天气,它就不知怎么回答了。在各方面都能和人类比肩的人工智能称为强人工智能。教育学家弗雷德森把“智能”定义为“一种宽泛的心理能力,能够进行思考、计划、理解复杂理念和从经验中学习等操作”,强人工智能

3、在进行这些操作时应该和人类一样得心应手。第三种是超人工智能。著名的人工智能思想家波斯特罗姆这样描述超人工智能:“它在几乎所有领域,包括科学创新和社交技能,都比最聪明的人类大脑聪明很多。”现在我们的世界中弱人工智能已经无处不在。你的手机里就充满了弱人工智能系统。当你用地图软件导航、接受音乐电台推荐、查询明天的天气时,其实都是在利用弱人工智能。百度之类的搜索引擎也是一个巨大的弱人工智能,背后包含了非常复杂的排序方法和内容检索。军事、制造、金融等领域也早已广泛运用各种复杂的弱人工智能。创造强人工智能则要难得多。迄今为止,人类的大脑是我们所知宇宙中最复杂的东西。要想创造一个达到

4、人类智能水平的电脑,需要解决的困难可能超乎想象。首先要有具备人脑运最专业的K12教研交流平台算能力的硬件。事实上,目前世界上最快的超级计算机——中国的天河二号每秒能进行3.4亿亿次运算,早已超过这个运算力了。但更困难的还在于,怎样利用这样的运算能力让电脑真正模拟人脑。不过,硬件的发展和软件的创新都是以指数级增长的速度发生的,开端可能像蜗牛漫步,但是后期会跑得非常快,强人工智能可能比我们预期的更早降临。然后,人类就可以做好迎接超人工智能降临的准备了。(取材于[美]雷·库兹韦尔等相关文章)1.根据“材料一”,下列对“人工智能”的理解不正确的一项是(2分)[来源:Z#xx#k

5、.Com]A.机器人和人工智能,就像人的身体和大脑,二者缺一不可。B.人工智能是个广义概念,它的呈现方式是多样的。C.目前生活中实际运用的人工智能都是弱人工智能。D.在未来社会人工智能有可能全面地远远超越人类。2.根据“材料一”,下列不属于“弱人工智能”的一项是(3分)A.自动扫地机器人B.纳米涂层手机屏幕C.垃圾邮件过滤器D.汽车雷达感应系统3.根据“材料一”,下面图形中对人工智能发展速度和趋势的判断,正确的一项是(2分)材料二如果有一天,人类创造出了超人工智能,这个世界会是什么样呢?许多对未来充满信心的人对此感到非常兴奋。很难想象会有什么问题是超级智能解决不了的。疾

6、病、贫困、环境毁灭、各种不必要的苦难,这些都是超级智能可以应对解决的。最激动人心的一个设想是:人工智能可以帮助人类实现永生。仔细想想,我们的身体是原子构成的,衰老只是身体的组成物质用旧了,就像汽车开久了零件会用旧一样。如果人工智能可以操纵各种原子结构,就能拥有完美的修复技术,或者干脆直接生产新零件不断替换掉旧的,这辆车就能永远开下去。甚至,我们可以——把大脑中所有的记忆数据直接转移到一个由超级最专业的K12教研交流平台智能制造出的全新的身体里。但是,在另一些人眼里,人工智能对人类构成的威胁甚至超过核武器。一次采访中,对“人工智能未来是否会自行思考、进化并给人类带来灾难”

7、这个问题,比尔·盖茨的回答是:“我属于对超人工智能充满担忧的阵营。如果机器能替代人类做事,而没有发展为超级智能,那么只要管理好这些机器,善于利用,似乎没有太大危险。但在几十年的发展之后,人工智能很可能强大到需要警惕的阶段。”物理学巨匠霍金认为,成功研发人工智能将成为人类历史上犯的最大错误,不幸的是,这也可能是最后一个错误。他说:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事,并且以越来越快的速度自行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被取代。”近日,包括霍金在内的数百名专家在一封公

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。