详解hadoop核心架构hdfs

详解hadoop核心架构hdfs

ID:14418106

大小:110.50 KB

页数:8页

时间:2018-07-28

详解hadoop核心架构hdfs_第1页
详解hadoop核心架构hdfs_第2页
详解hadoop核心架构hdfs_第3页
详解hadoop核心架构hdfs_第4页
详解hadoop核心架构hdfs_第5页
资源描述:

《详解hadoop核心架构hdfs》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、详解Hadoop核心架构HDFS+MapReduce+Hbase+HiveHDFS的体系架构  整个Hadoop的体系结构主要是通过HDFS来实现对分布式存储的底层支持,并通过MR来实现对分布式并行任务处理的程序支持。  HDFS采用主从(Master/Slave)结构模型,一个HDFS集群是由一个NameNode和若干个DataNode组成的(在最新的Hadoop2.2版本已经实现多个NameNode的配置-这也是一些大公司通过修改hadoop源代码实现的功能,在最新的版本中就已经实现了)。NameNode作为主服务器,管理文件系统命名

2、空间和客户端对文件的访问操作。DataNode管理存储的数据。HDFS支持文件形式的数据。  从内部来看,文件被分成若干个数据块,这若干个数据块存放在一组DataNode上。NameNode执行文件系统的命名空间,如打开、关闭、重命名文件或目录等,也负责数据块到具体DataNode的映射。DataNode负责处理文件系统客户端的文件读写,并在NameNode的统一调度下进行数据库的创建、删除和复制工作。NameNode是所有HDFS元数据的管理者,用户数据永远不会经过NameNode。图中涉及三个角色:NameNode、DataNode、

3、Client。NameNode是管理者,DataNode是文件存储者、Client是需要获取分布式文件系统的应用程序。文件写入:  1)Client向NameNode发起文件写入的请求。  2)NameNode根据文件大小和文件块配置情况,返回给Client它管理的DataNode的信息。  3)Client将文件划分为多个block,根据DataNode的地址,按顺序将block写入DataNode块中。  文件读取:  1)Client向NameNode发起读取文件的请求。  2)NameNode返回文件存储的DataNode信息。 

4、 3)Client读取文件信息。  HDFS作为分布式文件系统在数据管理方面可借鉴点:文件块的放置:一个Block会有三份备份,一份在NameNode指定的DateNode上,一份放在与指定的DataNode不在同一台机器的DataNode上,一根在于指定的DataNode在同一Rack上的DataNode上。备份的目的是为了数据安全,采用这种方式是为了考虑到同一Rack失败的情况,以及不同数据拷贝带来的性能的问题MapReduce体系架构  MR框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点上的TaskTra

5、cker共同组成。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的不同的从节点上。主节点监视它们的执行情况,并重新执行之前失败的任务。从节点仅负责由主节点指派的任务。当一个Job被提交时,JobTracker接受到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控TaskTracker的执行。JobTracker可以运行于集群中的任意一台计算机上。TaskTracker负责执行任务,它必须运行在DataNode上,DataNode既是数据存储节点,也是计算节点。JobTracker将map任务和reduce

6、任务分发给空闲的TaskTracker,这些任务并行运行,并监控任务运行的情况。如果JobTracker出了故障,JobTracker会把任务转交给另一个空闲的TaskTracker重新运行。HDFS和MR共同组成Hadoop分布式系统体系结构的核心。HDFS在集群上实现了分布式文件系统,MR在集群上实现了分布式计算和任务处理。HDFS在MR任务处理过程中提供了文件操作和存储等支持,MR在HDFS的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成分布式集群的主要任务。 Hadoop上的并行应用程序开发是基于MR编程

7、框架。MR编程模型原理:利用一个输入的key-value对集合来产生一个输出的key-value对集合。MR库通过Map和Reduce两个函数来实现这个框架。用户自定义的map函数接受一个输入的key-value对,然后产生一个中间的key-value对的集合。MR把所有具有相同的key值的value结合在一起,然后传递个reduce函数。Reduce函数接受key和相关的value结合,reduce函数合并这些value值,形成一个较小的value集合。通常我们通过一个迭代器把中间的value值提供给reduce函数(迭代器的作用就是收

8、集这些value值),这样就可以处理无法全部放在内存中的大量的value值集合了流程简而言之,大数据集被分成众多小的数据集块,若干个数据集被分在集群中的一个节点进行处理并产生中间结果。单节点上

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。