一、HDFS重要特性
- 首先他是一个文件系统,用于存储文件,通过同意的命名空间目录树来定位文件
- 其次,它是分布式的,由很多服务器联合起来实现其功能,器群中的服务器有个字的角色
1.1、master/slave架构
1.2、分块存储
HDFS中的文件在物理上是分块存储(block)的,块的大小可以通过配置参数来规定,默认大小在dadoop2.x版本中是128M
1.3、名字空间(NameSpace)
- HDFS支持传统的层次型文件组织结构。用户或者应用程序可以创建目录,然后将文件保存在这些目录里。文件系统名字空间的层次结构和大多数现有的文件系统类似:用户可以创建、删除、移动或重命名文件
- Namenode负责维护文件系统的名字空间,任何对文件系统名字空间或属性的修改都会被Namenode记录下来
- Hdfs会给客户端提供一个统一的抽象目录树,客户端通过路径来访问文件,例如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data
1.4、Nmaenode元数据管理
我们把目录结构及文件分块位置信息叫做元数据。Namenode负责维护整个hdfs文件系统的目录树结构,以及每一个文件所对应的block块信息(block的id,及所在的datanode服务器)
1.5、Datanode数据存储
文件的各个block的具体存储管理由datanode节点承担。每一个block都可以在多个datanode上。Datanode定时向Namenode汇报自己持有的block信息
1.6、副本机制
为了容错,文件的所有blcok都会有副本,每个文件的blcok大小和副本系数都是可配置的。应用程序可以指定某个文件的指定副本数目。副本系数可以在在文件创建的时候指定,也可以在之后改变
副本数量也可以通过参数设置dfs.replication 默认是3
1.7、一次写入,多次读出
HDFS是设计成适应一次写入,多次读出的场景,且不支持文件的修改。正因为如此,HDFS适合用来做大数据分析的底层存储服务,并不适合用来做网盘等应用,因为修改不方便,延迟大,网络开销大,成本太高
二、NameNode概述
-
NameNode是HDFS的核心 -
NameNode也成为Master -
NameNode仅存储HDFS的元数据:文件系统中所有文件的目录树,并跟踪整个集群中的文件 -
NameNode不存储实际数据或数据集。数据本身实际存储在DataNodes中 -
NameNode知道HDFS中任何给定文件的块列表及其位置。使用此信息Name知道如何从块中构建文件 -
NameNode并不持久化存储每个文件中各个块所在的DataNode的位置信息,这些信息会在系统启动时从数据节点重建 -
NameNode对于HDFS至关重要,当NameNode关闭时,HDFS/Hadoop集群无法访问 -
NameNode是Hadoop集群中的单点故障 -
NameNode所在机器通常会配置有大量内存(RAM)
三、DataNode概述
- DataNode负责将实际数据存储在HDFS中
- DataNode也成为Slave
- NameNode和DataNode会保持不断通信
- DataNode启动时,它将自己发布到NameNode并汇报自己负责持有的块列表
- 当某个DataNode关闭时,它不会影响数据或集群的可用性。NameNode将安排由其他DataNode管理的块进行副本复制
- DataNode所在机器通常配置有大量的硬盘空间。因为实际数据存储在DataNode中
四、HDFS的工作机制
- NameNode复制管理整个文件系统元数据;
- DataNode负责管理具体文件数据块存储;
- Secondary NameNode协助NameNode进行元数据备份
- HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向NameNode申请来执行
五、HDFS写数据解析
-
client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已经存在,父目录是否已存在,返回是否可以上传 -
client请求第一个block该传输到哪些DataNode服务器上 -
NameNode根据配置文件中指定的备份数量以及副本放置策略进行文件分配,返回可用的DataNode的地址,如:A, B, C; 注:默认存储策略由BlockPlacementPolicyDefault 类支持。也就是日常生活中提到最经典的3副本策略 1st replica 如果写请求方所在机器是其中一个datanode,则直接存放在本地,否则随机在集群中选择一个datanode 2nd replica 第二个副本存放于不同第一个副本的所在的机架 3nd replica 第三个副本存放于第二个副本所在的机架,但是属于不同的节点上 -
client请求3太DataNode中的一台A上传数据(本质上是一个RPC调用,简历pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client -
client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答 -
数据被分隔成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipeline ack发送给client -
当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器
六、HDFS读数据流程
- Client向NameNode发起RPC请求,来确定请求文件block所在的位置
- NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode都会返回含有该blcok副本的DataNode地址
- 这些返回的ND地址,会按照集群拓扑结构得出DataNode与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离Client近的排靠前;心跳机制中超时汇报的DN状态为STALE,这样的排靠后
- Client选取排序靠前的DataNode来读取block,如果客户端本身就是DataNdoe,那么将从本地直接获取数据
- 底层上本质是建立FSDataInputStream,重复的调用父类DataInputStream的read方法,直到这个块上的数据读取完毕;一旦到达块的末尾,DFSInputStream关闭连接并接续定位下一个块的下一个DataNode
- 当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表;一旦客户端完成读取,它就会调用close()方法
- 读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知NameNode,然后再从下一个拥有该block副本的DataNode继续
- NameNode只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据
- 最终读取来所有的block会合并成一个完整的最终文件
七、HDFS元数据管理概述
HDFS元数据,按照类型分,主要包括以下几个部分:
- 文件、目录自身的属性信息,例如文件名,目录名,修改信息等
- 文件记录的信息的存储相关的信息,例如存储块信息,分块情况,副本个数等
- 记录HDFS的Datanode的信息,用于DataNode的管理
按照形式分为内存元数据和元数据文件两种,分别存在内存和磁盘上
HDFS上元数据文件分为两类,用于持久化存储:
- fsimage 镜像文件:是元数据的一个持久化的检查点,包含Hadoop文件系统中的所有目录和文件元数据信息,但不包含文件块位置的信息。文件块位置信息只存储在内存中,是在datanode加入集群的时候,namenode询问datanode得到的,并且间断的更新
- Edits 编辑日志:存放的事Hadoop文件系统的所有更改操作(文件创建,删除或修改)的日志,文件系统客户端执行的更改操作首先会被记录到edits文件中
- fsimage和edits文件都是经过序列化的,在NameNode启动的时候,它会将fsimage文件中的内容加载到内存中,之后再执行edits文件中的各项操作,使得内存中的元数据和实际的同步,存在内存中的元数据支持客户端的读操作,也是最完整的数据
- 当客户端对HDFS中的文件进行新增或者修改操作,操作记录首先被记入edits日志文件中,当客户端操作成功后,相应的元数据会更新到内存元数据中。因为fsimage文件一般都很大,如果所有的更新操作都往fsimage文件中添加,这样会导致系统运行的十分缓慢
|