当前位置:   article > 正文

Hadoop权威指南-读书笔记_hadoop权威指南 读后感

hadoop权威指南 读后感

2  关于MapReduce

2.1 Hadoop集群架构

2.1 Hadoop集群架构图

在图2.1中包括分布式数据处理模型MapReduce,分布式文件系统HDFS

2.1.1 MapReduce模型之JobNodes

Ø  一个job由若干task组成:

l  若干 map tasks

l  若干 reduce tasks

Ø  控制job运行的两类nodes:

l  1 jobtracker:协调和控制系统中运行的所有jobs,以及所有在tasktrackers上运行的tasks

l  若干 tasktrackers:运行task,并向jobtracker发送进度报告(记录了每一个job的运行进度)

l  如果一个task失败了,jobtracker可以将其重新部署到另一个tasktracker上运行

2.1.2 HDFSNamenodeDatanode

Ø  NamenodeDatanodeHDFS中的概念。

Ø  被存储在HDFS中的数据以block为单位存储,且每一个block被复制多份存储在不同节点,以提供可靠性保证和高速访问。

Ø  HDFS采用master-slaves的架构:

l  master管理数据文件的namepace (metadata,目录结构,文件到blocks的映射,blocks的位置,访问权限等)

l  slaves则管理实际的数据blocks

l  master指导client对数据进行访问

Ø  GFS

l  master被称作GFS master

l  slaves被称作GFS chunkservers

Ø  Hadoop

l  master被称作namenode

l  slaves则被称作datanodes

2.2 MapReduce层与HDFS层的对应关系

2.1.3 HDFS架构

2.3 HDFS架构图

2.2 数据流

2.4 MapReduce执行过程数据流

2.2.1 Input splits, and records

Ø  MapReduce的输入(input file)被切分为固定大小的input splits,简称split

Ø  Hadoop为每一个split都创建一个map task,该map task中的map函数会作用于split中的每一个record.

Ø  一个record就是一个key-value pair

注意:

input split是对record(即key-value pair)在逻辑上的切分,而HDFS中的block是对输入数据的物理切分。当两者一致时,很高效,但是实际中往往不一致。record可能会跨越block的边界。

2.2.2 Split的大小选择

Ø  Split不该太大(失去parallel性)

Ø  也不该太小(额外的开销占比过大)

Ø  HDFS中的一个Block的大小相同较为合适(Block默认为64BM

2.2.3移动计算,而不是移动数据

Ø  Task在运行时需要数据

Ø  Job scheduler会在已经有了所需数据的节点上启动对应的task,这样就实现了data locality

2.2.4 map reduce 的输出

Ø  Map task的输出将被写入磁盘(Linux文件系统),而不是HDFS文件系统。为什么?

l  Map的输出是中间临时结果(intermediate key-value pairs),它们作为reduce tasks的输入

l  一旦job结束,这些中间临时结果即被丢弃,不再需要

l  如果存入HDFS,就需要复制多份副本在网络上传输,浪费!

Ø  Reduce task的输出会被写入到HDFS文件系统中

l  毕竟,它们的输出是用户最终需要的结果,要妥善保存

2.2.5 只有1reduce task的数据流图

2.5 只有一个Reduce的数据流

 

参考消息:
Hadoop、HDFS数据流 解析 第二版 - (肖韬 南京大学计算机系)

Hadoop权威指南

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/865721
推荐阅读
相关标签
  

闽ICP备14008679号