当前位置:   article > 正文

Hadoop 写文件_hadoop写文件

hadoop写文件

1.客户端将文件写入本地磁盘的HDFS Client 文件中

2. 当临时文件大小达到一个block 大小时,HDFS client 通知NameNode,申请写入文件

3. NameNode 在HDFS 的文件系统中创建一个文件,并把该block id和要写入·的DataNode的列表返回给客户端

4 客户端收到这些信息后,将临时文件写入DataNodes

4.1 客户端将文件内容写入第一个DataNode(一般以4kb 为单位进行传输)

4.2 第一个DataNode接收后,将数据写入本地磁盘,同时也传输给第二个DataNode

4.3 依次类推到最后一个DataNode接收完数据后,数据在DataNode 之间是通过pipline 的方式进行复制的

4.4 后面的dataNode 接收完数据后,都会发送一个确认给前一个DataNode,最终第一个DataNode返回确认给客户端。、

4.5 当客户端接收到整个block的确认后,会向NameNode 发送一个最终的确认信息。

4.6. 如果写入某个DataNode失败,数据会继续写入其他的DataNode,然后NameNode 会找另外一个好的DataNode 继续复制,以保证冗余性。

4.7 每个block 都会有一个校验码,并存放到独立的文件中,以便读的时候来验证其完整性。

5. 数据写完后(客户端关闭),NameNode 提交文件。

Back aware(机架感知)

通过配置文件指定机架名和DNS的对应关系

假设复制参数是3,在写入文件时,会在本地的机架保存一份数据,然后在另外一个机架内保存两份数据(同机架内的传输速度快,从而提高性能)

整个HDFS 的集群,最好是负载平衡的,这样才能尽量利用集群的优势。

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/592763
推荐阅读
相关标签
  

闽ICP备14008679号