欢迎来到天天文库
浏览记录
ID:83586930
大小:14.76 KB
页数:15页
时间:2024-09-01
《大数据平台技术智慧树知到课后章节答案2023年下山东交通学院.docx》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
大数据平台技术智慧树知到课后章节答案2023年下山东交通学院山东交通学院第一章测试1.数据,就是所有能输入到计算机,并被计算机程序处理的符号的总称为()。A:对B:错答案:对2.大数据的4V特征包括()。A:变化频繁B:规模庞大C:种类繁多D:价值巨大但价值密度低答案:变化频繁;规模庞大;种类繁多;价值巨大但价值密度低3.2TB数据等于多少GB()。A:1000B:2048C:1024D:2000答案:2048 1.大数据包含下面类型()。A:半结构化数据B:纯文本数据C:非结构化数据D:结构化数据答案:半结构化数据;纯文本数据;非结构化数据;结构化数据2.大数据的生命周期一般会经历这么几个阶段()。A:采集与预处理B:存储与管理C:分析与挖掘D:可视化答案:采集与预处理;存储与管理;分析与挖掘;可视化3.大数据平台的基本架构,从技术架构的角度,可划分为这几个层次()。A:服务封装层B:数据存储层C:数据采集层D:数据处理层 答案:服务封装层;数据存储层;数据采集层;数据处理层1.linux系统中cd命令的作用是()。A:进入指定目录B:删除一个目录中的一个或多个文件C:将源文件复制至目标文件D:移动文件或修改文件名答案:进入指定目录2.vi编辑器的操作模式共分为()。A:输入模式B:底线命令模式C:命令模式D:编辑模式答案:底线命令模式;命令模式;编辑模式第二章测试3.Flume的Agent包含这些组成部分()。 A:SinkB:ChannelC:SourceD:Event答案:Sink;Channel;Source1.Event由这两部分组成()。A:ArrayB:BodyC:HeadD:K-V答案:Body;Head2.Source是Flume中事件的源头,负责接收数据到FlumeAgent,可以处理多种类型、多种格式的数据()A:错B:对答案:对3.Channel是位于Source和Sink之间的缓冲区,对Source和Sink进行一对一处理()A:对B:错答案:错 1.在Flume的配置文件中,对某个目录下文件进行监控的命令是()。A:flume-ngB:execC:/bin/bash-cD:tail-f答案:tail-f第三章测试2.以下说法有误的是()。A:分布式存储系统可以实现数据容灾B:传统单机存储方式扩容成本较低C:分布式存储系统需要考虑数据的分块问题D:“元数据”中不包含真正的文件数据答案:传统单机存储方式扩容成本较低3.Hadoop2.x中HDFS默认的block的大小为()。A:128MBB:32MBC:64MBD:256MB答案:128MB4.关于SecondaryNameNode哪项是正确的()。 A:SecondaryNameNode应与NameNode部署到一个节点B:它是NameNode的热备C:它对内存没有要求D:它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间答案:它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间1.以下哪一项用于配置HDFS的block大小()。A:dfs.replicationB:dfs.name.dirC:dfs.blocksizeD:fs.defaultFS答案:dfs.blocksize2.HDFS中的NameNode节点用于存放元数据,元数据内容包含()。A:客户端硬件配置数据B:数据块与数据节点的映射表C:文件与数据块的映射表D:每个数据块的内容答案:数据块与数据节点的映射表;文件与数据块的映射表3.如果NameNode意外终止,SecondaryNameNode会接替它使集群继续工作。()A:错B:对答案:错 1.NameNode负责管理元数据,客户端每次读写请求,它都会从磁盘中读取或者写入元数据信息并反馈客户端。()A:错B:对答案:错2.因为HDFS有多个数据副本,所以NameNode是不存在单点故障问题的。()A:错B:对答案:错3.读取HDFS文件可以使用命令hdfsdfs-get。()A:错B:对答案:对第四章测试4.以下说法有误的是()。A:Hadoop的MapReduce框架不能容忍任务出错B:MapReduce编程模型可以分为Map和Reduce两个阶段C:MapReduce编程模型的核心思想是分而治之D:分布式计算框架的实现需要考虑网络通信答案:Hadoop的MapReduce框架不能容忍任务出错 1.下面说法错误的是()。A:MapTask负责汇总整个任务的执行结果B:一个集群中某个确定的任务可以存在多个MapTask进程C:MapReduce任务可以不跑在Hadoop集群中D:MapReduce可以逐行处理文本数据答案:MapTask负责汇总整个任务的执行结果2.下面哪项是错误的()。A:Python提交MapReduce作业时,可以使用-rhadoop指定集群模式运行B:MapReduce作业的运行内存并非越大越好C:Python提交MapReduce作业时,可以使用-o参数指定输出路径D:MapReduce的输出目录如果已经存在了,任务的输出结果将会覆盖该路径下的原有内容答案:MapReduce的输出目录如果已经存在了,任务的输出结果将会覆盖该路径下的原有内容3.MapReduce中Map阶段的输出将作为下面哪个阶段的输入()。A:ReduceB:SplitC:JoinD:Shuffle答案:Reduce 1.下列关于MapReduce说法正确的是()。A:MapReduce是一种计算框架B:MapReduce隐藏了并行计算的细节,方便使用C:MapReduce来源于google的学术论文D:MapReduce程序只能用java语言编写答案:MapReduce是一种计算框架;MapReduce隐藏了并行计算的细节,方便使用;MapReduce来源于google的学术论文第五章测试2.以下说法有误的是()。A:Kafka无法持久化数据B:Kafka由Scala语言编写C:实时数据传输问题在高并发场景下尤为明显D:Kafka支持离线数据处理答案:Kafka无法持久化数据3.以下对Kafka名词解释错误的是()。A:Partition指Kafka的数据副本B:Offset是数据在分区中的唯一位置C:Broker指Kafka服务器D:Consumer指消息的消费者答案:Partition指Kafka的数据副本 1.对市面上的消息队列产品描述正确的是()。A:RabbitMQ支持动态扩展B:ActiveMQ不支持集群模式C:Kafka支持事务D:Kafka支持动态扩展答案:Kafka支持动态扩展2.以下描述正确的是()。A:数据发送到Kafka需要经历序列化B:Kafka的默认客户端端口号是50070C:utf-8编码方式不支持中文D:Python语言可以通过kafka-python模块使用Kafka客户端答案:数据发送到Kafka需要经历序列化;Python语言可以通过kafka-python模块使用Kafka客户端3.以下对消息模型的说法正确的是()。A:点对点模型中消息被消费后即删除B:发布订阅模型以主题区分消息类别C:点对点模型中同一消息只有一个消费者可以消费D:发布订阅模型消息可以重复消费答案:点对点模型中消息被消费后即删除;发布订阅模型以主题区分消息类别;点对点模型中同一消息只有一个消费者可以消费;发布订阅模型消息可以重复消费 第六章测试1.Spark框架的特色包括()。A:通用性B:容易使用C:运行速度快D:运行模式多样答案:通用性;容易使用;运行速度快;运行模式多样2.Spark支持的集群管理器包括()。A:HadoopYARNB:ApacheMesosC:SparkCoreD:Standalone答案:HadoopYARN;ApacheMesos;Standalone3.下面关于Spark驱动程序driverprogram的说法,正确的是()。A:驱动程序负责把并行操作发布到集群上B:驱动程序定义了分布式数据集以应用在集群中C:驱动程序包含Spark应用程序中的主函数D:每个Spark应用程序都包含一个驱动程序 答案:驱动程序负责把并行操作发布到集群上;驱动程序定义了分布式数据集以应用在集群中;驱动程序包含Spark应用程序中的主函数;每个Spark应用程序都包含一个驱动程序1.弹性分布式数据集RDD的特性包括()。A:弹性B:依赖C:分区D:只读答案:弹性;依赖;分区;只读2.在Spark操作中,map(func)的作用是()。A:对元素为键值对的RDD中Key相同的元素的value进行reduceB:返回排序后的数据集C:对RDD中的数据按照func进行计算得到新的RDDD:返回一个新的数据集,这个数据集中的元素是通过func函数筛选后返回为true的元素答案:对RDD中的数据按照func进行计算得到新的RDD3.在Spark操作中,collect()的作用是()。A:返回数据集中的元素个数 B:通过函数func聚合数据集中的元素C:以数组的形式返回数据集中的所有元素D:将数据集中的每个元素传递到函数func中运行答案:以数组的形式返回数据集中的所有元素1.从概念上而言,流数据(或数据流)是指()。A:在时间分布和数量上无限的一系列动态数据集合体B:数据分时段批量到达C:数据采用集中式处理D:数据记录是流数据的最小组成单元答案:在时间分布和数量上无限的一系列动态数据集合体;数据记录是流数据的最小组成单元2.SparkStreaming最主要的抽象是离散化数据流,表示连续不断的数据流。()A:对B:错答案:对3.在SparkStreaming中,作为一个长期运行的task跑在一个Executor上,用于接收DStream的组件是()。A:StreamingB:AnalyzerC:RDDD:Receiver答案:Receiver 1.在SparkStreaming中,可以通过streamingContext.awaitTermination()方法来手动结束流计算进程。()A:对B:错答案:错第七章测试2.以下说法有误的是()。A:HBase不需要考虑读写性能B:HBase是一种key-value数据库C:HBase对事务的支持较差D:HBase是非关系型数据库答案:HBase不需要考虑读写性能3.下面说法错误的是()。A:HBase的一个表中可以有多个列族B:HBase表的一个列族可以包含多个列C:HBase一个RegionServer服务器中可以有多个RegionD:一个HBase集群中只能有一个RegionServer答案:一个HBase集群中只能有一个RegionServer 1.下面哪项关于HBase的常用命令的描述是错误的()。A:HBase使用scan命令时可以指定扫描区间B:HBase要查看表可以使用list_namespaceC:HBase一张正在使用的表可以直接使用drop命令删除D:HBase全表扫描使用get命令答案:HBase要查看表可以使用list_namespace;HBase一张正在使用的表可以直接使用drop命令删除;HBase全表扫描使用get命令2.下面说法正确的是()。A:HBase的Master节点宕机后仍然可以查询B:HBase的Master节点宕机后不影响建表C:Zookeeper记录了meta表存储在哪个RegionServerD:HBase可以自动对大表分片答案:HBase的Master节点宕机后仍然可以查询;Zookeeper记录了meta表存储在哪个RegionServer;HBase可以自动对大表分片3.HBase的预写日志可以降低数据丢失的风险。()A:对B:错答案:对
此文档下载收益归作者所有
举报原因
联系方式
详细说明
内容无法转码请点击此处