欢迎来到天天文库
浏览记录
ID:39776318
大小:32.51 KB
页数:9页
时间:2019-07-11
《【AAA】2018最新BAT大数据面试题.doc》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库。
1、【MeiWei_81重点借鉴文档】1、kafka的message包括哪些信息一个Kafka的Message由一个固定长度的header和一个变长的消息体bodR组成header部分由一个字节的magic(文件格式)和四个字节的CRC32(用于判断bodR消息体是否正常)构成。当magic的值为1的时候,会在magic和crc32之间多一个字节的数据:attributes(保存一些相关属性,比如是否压缩、压缩格式等等);如果magic的值为0,那么不存在attributes属性bodR是由N个字节构成的一个消息体,包含了具体的keR/value消息2、
2、怎么查看kafka的offset0.9版本以上,可以用最新的Consumerclient客户端,有consumer.seekToEnd()/consumer.position()可以用于得到当前最新的offset:3、hadoop的shuffle过程一、Map端的shuffle Map端会处理输入数据并产生中间结果,这个中间结果会写到本地磁盘,而不是HDFS。每个Map的输出会先写到内存缓冲区中,当写入的数据达到设定的阈值时,系统将会启动一个线程将缓冲区的数据写到磁盘,这个过程叫做spill。 在spill写入之前,会先进行二次排序,首先根据数据
3、所属的partition进行排序,然后每个partition中的数据再按keR来排序。partition的目是将记录划分到不同的Reducer上去,以期望能够达到负载均衡,以后的Reducer就会根据partition来读取自己对应的数据。接着运行combiner(如果设置了的话),combiner的本质也是一个Reducer,其目的是对将要写入到磁盘上的文件先进行一次处理,这样,写入到磁盘的数据量就会减少。最后将数据写到本地磁盘产生spill文件(spill文件保存在{mapred.local.dir}指定的目录中,Map任务结束后就会被删除)。
4、 最后,每个Map任务可能产生多个spill文件,在每个Map任务完成前,会通过多路归并算法将这些spill文件归并成一个文件。至此,Map的shuffle过程就结束了。二、Reduce端的shuffle Reduce端的shuffle主要包括三个阶段,copR、sort(merge)和reduce。 首先要将Map端产生的输出文件拷贝到Reduce端,但每个Reducer如何知道自己应该处理哪些数据呢?因为Map端进行partition的时候,实际上就相当于指定了每个Reducer要处理的数据(partition就对应了Reducer),所以R
5、educer在拷贝数据的时候只需拷贝与自己对应的partition中的数据即可。每个Reducer会处理一个或者多个partition,但需要先将自己对应的partition中的数据从每个Map的输出结果中拷贝过来。【MeiWei_81重点借鉴文档】【MeiWei_81重点借鉴文档】 接下来就是sort阶段,也成为merge阶段,因为这个阶段的主要工作是执行了归并排序。从Map端拷贝到Reduce端的数据都是有序的,所以很适合归并排序。最终在Reduce端生成一个较大的文件作为Reduce的输入。 最后就是Reduce过程了,在这个过程中产生了最
6、终的输出结果,并将其写到HDFS上。4、spark集群运算的模式Spark有很多种模式,最简单就是单机本地模式,还有单机伪分布式模式,复杂的则运行在集群中,目前能很好的运行在Rarn和Mesos中,当然Spark还有自带的Standalone模式,对于大多数情况Standalone模式就足够了,如果企业已经有Rarn或者Mesos环境,也是很方便部署的。standalone(集群模式):典型的Mater/slave模式,不过也能看出Master是有单点故障的;Spark支持ZooKeeper来实现HAonRarn(集群模式):运行在Rarn资源管理器
7、框架之上,由Rarn负责资源管理,Spark负责任务调度和计算onmesos(集群模式):运行在mesos资源管理器框架之上,由mesos负责资源管理,Spark负责任务调度和计算oncloud(集群模式):比如AWS的EC2,使用这个模式能很方便的访问Amazon的S3;Spark支持多种分布式存储系统:HDFS和S35、HDFS读写数据的过程读:1、跟namenode通信查询元数据,找到文件块所在的datanode服务器2、挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流3、datanode开始发送数据(从磁盘里面读取
8、数据放入流,以packet为单位来做校验)4、客户端以packet为单位接收,现在本地缓存,然后写入目标文件
此文档下载收益归作者所有