根据下图介绍HDFS的写入流程。
步骤
1. create
客户端通过对DistributedFileSystem
对象调用create()
方法来发起创建文件流程。
2. create
DistributedFileSystem
对象对namenode
创建一个RPC调用,在文件系统中的命名空间中创建一个文件,此时还没有对此文件创建相应的数据块。namenode
执行各种检查确保这个文件不存在以及客户端有新建该文件的权限。如果检查通过namenode
就会创建这个文件并添加一条记录。否则,文件创建失败并向客户端抛出IOException
异常。DistributedFileSystem
对象向客户端返回一个FSDataOutputStream
对象。
3. write
客户端获得FSDataOutputStream
对象后,开始写入数据。和读取数据一样FSDataOutputStream
封装了DFSOutputStream
对象,该对象负责处理datanode
和namenode
之间的通讯。
4. write packet
DFSOutputStream
将写入的数据分成一个个的数据包并写入内部队列,称为“数据队列”。DataStreamer
处理数据队列,它的挑选出一组合适存储数据的datanode
,namenode
根据这些信息来分配新的数据块。假设副本数为3,则写入需要涉及3个datanode
。DataStreamer
将数据包流式写入第一个datanode
中,并且第一个会将数据转发给第二个datanode
。同样,第二个也会将数据转发给第三个datanode
。
5. ack packet
DFSOutputStream
也维护着一个内存数据包队列来等待datanode
收到数据的确认回执,称为“确认队列”。收到所有datanode
确认信息后,该数据包才会从确认队列删除。如果任何datanode
写入数据中发生故障,则执行以下操作。
关闭错误的写入流。确认把队列中的所有数据包都添加回数据队列的最前端,等待重新发送,确保故障发生节点以后的
datanode
不会漏掉任何一个数据包。当前数据块可能已经正常写入一些节点,则对这些数据块指定一个新的标识,并将该表示传递给
namenode
,便于故障datanode
可以删除存储的部分数据块。删除故障的
datanode
,选择两个正常的datanode
构建一条新的管线。余下的数据块写入管线中正常的datanode
。namenode
注意到块副本量不足时,会在另一个节点上创建一个新的副本。
6. close
客户端完成数据的写入后,对数据流调用close()
方法。
7. complete
通知namenode
所有文件写入完成后完成写入操作。