大数据试题说课讲解.docx

大数据试题说课讲解.docx

ID:57108877

大小:35.75 KB

页数:8页

时间:2020-08-02

大数据试题说课讲解.docx_第1页
大数据试题说课讲解.docx_第2页
大数据试题说课讲解.docx_第3页
大数据试题说课讲解.docx_第4页
大数据试题说课讲解.docx_第5页
资源描述:

《大数据试题说课讲解.docx》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、大数据试题精品文档一、填空题(将正确的答案写入答题纸中。每空1分,共20分)1、HDFS有 _NameNode___,_DataNode___和_SecondaryNameNode___组成;2、Hadoop集群可以运行在_单机模式___,_伪分布式模式___和_完全分布式模式___3个模式?3、安装完全分布式ApacheHadoop的核心配置文件有_core-site.xml___,_hdfs-site.xml___,_mapred-site.xml___,_yarn-site.xml___。4、HBas

2、e中通过_HDFS___存储底层数据,通过__Zookeeper__提供消息通信机制5、HIVE默认采用__Derby______数据库进行元数据的存储,而真实的数据是存储在___HDFS_____中。6、如何在浏览器中查看HDFS运行状况的默认端口号是_50070___查看yarn运行状态的默认端口号是_8088___7、HDFS中当前block大小为128M,如果当前要上传到HDFS中的文件大小为300M,那么在存储时会分配_3___个block进行存储。8、HDFS获取根目录下的文件列表的命令shel

3、l命令是_hadoopfs-ls-R/___________;根目录下创建hdfs文件夹的shell命令是__hadoopfs-mkdir/hdfs_________。9、YARN架构中整个集群同一时间提供服务的ResourceManager有_1___个,负责集群资源的统一管理和调度。二、选择题(将正确的答案写入答题纸中。每题2分,共20分)1、配置Hadoop时,JAVA_HOME包含在哪一个配置文件中(B)A.hadoop-default.xmlB.hadoop-env.shC.hadoop-site

4、.xmlD.configuration.xs2、下面哪个程序负责HDFS数据存储。 (C) A)NameNode  收集于网络,如有侵权请联系管理员删除精品文档B)Jobtracker  C)Datanode  D)secondaryNameNode 3、下列关于HadoopAPI的说法错误的是(A)A.Hadoop的文件API不是通用的,只用于HDFS文件系统B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的C.FileStatus对象存储文件和目录的元数据D.FSData

5、InputStream是java.io.DataInputStream的子类4、HDfS中的block默认保存几份?(A)A)3份B)2份C)1份D)不确定5、为销售报表展示开发一个MapReduce作业,Mapper输入数据的Key是年份(IntWritable),Value表示商品标识(Text)。下列哪一项决定该Mapper的数据类型?(D)A.JobConf.setMapInputKeyClass与JobConf.setMapInputValuesClassB.HADOOP_MAP_DATATYPE

6、S环境变量C.随作业一起提交的mapper-specification.xml文件D.InputFormat格式类6、HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括(D)A.利用SequenceFile、MapFile、Har等方式归档小文件B.多Master设计C.Block大小适当调小D.调大namenode内存或将文件系统元数据存到硬盘里7、下列哪个程序通常与NameNode在一个节点启动?(D)收集于网络,如有侵权请联系管理员删除精品文档a)SecondaryName

7、Nodeb)DataNodec)TaskTrackerd)Jobtracker8、下面与HDFS类似的框架是?(C)(A)NTFS(B)FAT32(C)GFS(D)EXT39、HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是(C)A.一次写入,少次读写B.多次写入,少次读写C.一次写入,多次读写D.多次写入,多次读写10、HBase中的批量加载底层使用(A)实现。AMapReduceBHiveCCo

8、processorDBloomFilter三、简答题(将正确的答案写入答题纸中。每题5分,共20分)1、简述下HDFS数据读流程;答:步骤如下,能大致描述清楚流程,没有关键错误即可1、跟namenode通信查询元数据(block所在的datanode节点),找到文件块所在的datanode服务器收集于网络,如有侵权请联系管理员删除精品文档2、挑选一台datanode(就近原则,然后随机)服务器,请求建立socke

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。