赞
踩
集群是指将多台服务器整合在一起,每台服务器都实现相同的业务,做相同的事情。
每台服务器并不是缺一不可,它存在的作用主要是:
缓解并发压力、提升计算性能
单点故障转移问题
1.传统集群使用多个处理器和专用高级硬件的并行化处理装置
2.紧密/集中构造
阿姆达尔定律——并行度和可扩展性关系
普及化的计算机集群,都是由普通硬件构成的,硬件成本上低、使用和开发的门槛降低 - 相互之间分散——所以也称分布式
业务分工和总体协调
集中扩展模式
通过文件系统管理、存储数据
信息爆炸时代获取的数据成指数倍的增长,单纯通过增加硬盘个数来扩展计算机文件系统的存储容量的方式/以及专用的存储系统
分散存储组合 - 分布式
文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点(可简单的理解为一台计算机)相连,通过多节点…
将固定于某个地点的某个文件系统,扩展到任意多个地点/多个文件系统,众多的节点组成一个文件系统网络。
每个节点可以分布在不同的地点,通过网络进行节点间的通信和数据传输。
人们在使用分布式文件系统时,无需关心数据是存储在哪个节点上、或者是从哪个节点获取的,只需要像使用本地文件系统一样管理和存储文件系统中的数据。
总体的文件是通过某一种机制分布在各个计算机上:节点。这些节点分为两类:一类叫“主节点”(Master Node)或者也被称为“名称节点”(NameNode),另一类叫“从节点”(Slave Node)或者也被称为“数据节点”(DataNode)
总体而言,HDFS要实现以下目标:
兼容廉价的硬件设备
流数据读写
大数据集
简单的文件模型
强大的跨平台兼容性
HDFS特殊的设计,在实现上述优良特性的同时,也使得自身具有一些应用局限性,主要包括以下几个方面:
不适合低延迟数据访问
无法高效率存储大量小文件
不支持多用户写入及任意修改文件
HDFS默认一个块 64MB/128M,一个文件被分成多个块,以块作为存储单位
块的大小远远大于普通文件系统,可以最小化寻址开销
HDFS采用抽象的块概念可以带来以下几个明显的好处:
1)支持大规模文件存储:文件以块为单位进行存储,一个大规模文件可以被分拆成若干个文件块,不同的文件块可以被分发到不同的节点上,因此,一个文件的大小不会受到单个节点的存储容量的限制,可以远远大于网络中任意节点的存储容量。
2)简化系统设计:首先,大大简化了存储管理,因为文件块大小是固定的,这样就可以很容易计算出一个节点可以存储多少文件块;其次,方便了元数据的管理,元数据不需要和文件块一起存储,可以由其他系统负责管理元数据。
3)适合数据备份:每个文件块都可以冗余存储到多个节点上,大大提高了系统的容错性和可用性。
在HDFS中,名称节点(NameNode)负责管理分布式文件系统的命名空间(Namespace),保存了两个核心的数据结构,即 FsImage 和 EditLog
FsImage 用于维护文件系统树以及文件树中所有的文件和文件夹的元数据
操作日志文件 EditLog 中记录了所有针对文件的创建、删除、重命名等操作
名称节点记录了每个文件中各个块所在的数据节点的位置信息
FsImage文件
FsImage 文件包含文件系统中所有目录和文件 inode 的序列化形式。每个 inode 是一个文件或目录的元数据的内部形式,并包含此类信息:文件的复制等级、修改和访问时间、访问权限、块大小以及组成文件的块。对于目录,则存储修改时间、权限和配额元数据。
FsImage 文件没有记录文件包含哪些块以及每个块存储在哪个数据节点。而是由名称节点把这些映射信息保留在内存中,当数据节点加入 HDFS 集群时,数据节点会把自己所包含的块列表告知给名称节点,此后会定期执行这种告知操作,以确保名称节点的块映射是最新的。
名称节点的启动
在名称节点启动的时候,它会将 FsImage 文件中的内容加载到内存中,之后再执行 EditLog 文件中的各项操作,使得内存中的元数据和实际的同步,存在内存中的元数据支持客户端的读操作。
一旦在内存中成功建立文件系统元数据的映射,则创建一个新的 FsImage 文件和一个空的 EditLog 文件
名称节点起来之后,HDFS 中的更新操作会重新写到 EditLog 文件中,因为 FsImage 文件一般都很大(GB 级别的很常见),如果所有的更新操作都往 FsImage 文件中添加,这样会导致系统运行的十分缓慢,但是,如果往 EditLog 文件里面写就不会这样,因为 EditLog 要小很多。每次执行操作之后,且在向客户端发送成功代码之前,edits 文件都需要同步更新。
名称节点运行期间 EditLog 不断变大的问题
在名称节点运行期间,HDFS 的所有更新操作都是直接写到 EditLog 中,久而久之,EditLog 文件将会变得很大
虽然这对名称节点运行时候是没有什么明显影响的,但是,当名称节点重启的时候,名称节点需要先将 FsImage 里面的所有内容映像到内存中,然后再一条一条地执行 EditLog 中的记录,当 EditLog 文件非常大的时候,会导致名称节点启动操作非常慢,而在这段时间内 HDFS 系统处于安全模式,一直无法对外提供写操作,影响了用户的使用
如何解决?
答案是:SecondaryNameNode 第二名称节点
第二名称节点 是 HDFS 架构中的一个组成部分,它是用来保存名称节点中对 HDFS 元数据信息的备份,并减少名称节点重启的时间。SecondaryNameNode 一般是单独运行在一台机器上
数据节点是分布式文件系统 HDFS 的工作节点,负责数据的存储和读取,会根据客户端或者是名称节点的调度来进行数据的存储和检索,并且向名称节点定期发送自己所存储的块的列表。
每个数据节点中的数据会被保存在各自节点的本地 Linux 文件系统中。
HDFS 采用了主从(Master/Slave)结构模型,一个 HDFS 集群包括一个名称节点(NameNode)和若干个数据节点(DataNode)。名称节点作为中心服务器,负责管理文件系统的命名空间及客户端对文件的访问。集群中的数据节点一般是一个节点运行一个数据节点进程,负责处理文件系统客户端的读/写请求,在名称节点的统一调度下进行数据库块的创建、删除和复制等操作。每个数据节点的数据实际上是保存在本地 Linux 文件系统中的。
HDFS 的命名空间包含 目录、文件和块
在 HDFS1.0体系结构中,在整个 HDFS 集群中只有一个命名空间,并且只有唯一一个名称节点,该节点负责对这个命名空间进行管理
HDFS 使用的是传统的 分级文件体系,因此,用户可以 像使用普通文件系统一样,创建、删除目录和文件,在目录间转移文件,重命名文件等。
HDFS 是一个部署在集群上的分布式文件系统,因此,很多数据需要通过网络进行传输
所有的 HDFS 通信协议都是构建在 TCP/IP 协议基础之上的
客户端通过一个可配置的端口向名称节点主动发起 TCP 连接,并使用客户端协议与名称节点进行交互
名称节点和数据节点之间则使用数据节点协议进行交互
客户端与数据节点的交互是通过 RPC(Remote Procedure Call)来实现的。在设计上,名称节点不会主动发起 RPC,而是响应来自客户端和数据节点的 RPC 请求。
客户端是用户操作 HDFS 最常用的方式,HDFS 在部署时都提供了客户端
HDFS客户端是一个库,暴露了 HDFS 文件系统接口,这些接口隐藏了 HDFS 实现中的大部分复杂性
严格来说,客户端并不算是 HDFS 的一部分
客户端可以支持打开、读取、写入等常见的操作,并且提供了类似 Shell 的命令行方式来访问 HDFS 中的数据
此外,HDFS 也提供了 Java API,作为应用程序访问文件系统的客户端编程接口
HDFS 只设置唯一一个名称节点,这样做虽然大大简化了系统设计,但也带来了一些明显的局限性,具体如下:
1)**命名空间的限制:**名称节点是保存在内存中的,因此,名称节点能够容纳的对象(文件、块)的个数会受到内存空间大小的限制。
2)**性能的瓶颈:**整个分布式文件系统的吞吐量,受限于单个名称节点的吞吐量。
3)**隔离问题:**由于集群中只有一个名称节点,只有一个命名空间,因此,无法对不同应用程序进行隔离。
4)**集群的可用性:**一旦这个唯一的名称节点发生故障,会导致整个集群变得不可用。
作为一个分布式文件系统,为了保证系统的容错性和可用性,HDFS 采用了多副本方式对数据进行冗余存储,通常一个数据块的多个副本会被分布到不同的数据节点上,如图所示,数据块 1 被分别存放到数据节点 A 和 C 上,数据块 2 被存放在数据节点 A 和 B 上。这种多副本方式具有以下几个优点:
1)加快数据传输速度
2)容易检查数据错误
3)保证数据可靠性
第一个副本,放置在上传文件的数据节点;如果是集群外提交,则随机挑选一台磁盘不太满、CPU不太忙的节点
第二个副本:放置在与第一个副本不同的机架的节点上
第三个副本:与第一个副本相同机架的其他节点上
更多副本:随机节点
HDFS 提供了一个 API 可以确定一个数据节点所属的机架 ID,客户端也可以调用 API 获取自己所属的机架 ID
当客户端读取数据时,从名称节点获得数据块不同副本的存放位置列表,列表中包含了副本所在的数据节点,可以调用 API 来确定客户端和这些数据节点所属的机架 ID,当发现某个数据块副本对应的机架 ID 和客户端对应的机架 ID 相同时,就优先选择该副本读取数据,如果没有发现,就随机选择一个副本读取数据
HDFS 具有较高的容错性,可以兼容廉价的硬件,它把硬件出错看作一种常态,而不是异常,并设计了相应的机制检测数据错误和进行自动恢复,主要包括了一下几种情形:名称节点出错、数据节点出错和数据出错。
名称节点保存了所有的元数据信息,其中,最核心的两大数据结构是 FsImage 和 Editlog,如果这两个文件发生损坏,那么整个 HDFS 实例将失效。因此,HDFS 设置了备份机制,把这些核心文件同步复制到备份服务器 SecondaryNameNode 上。当名称节点出错时,就可以根据备份服务器 SecondaryNameNode 中的 FsImage 和 Editlog 数据进行恢复。
每个数据节点会定期向名称节点发送“心跳”信息,向名称节点报告自己的状态
当数据节点发生故障,或者网络发生断网时,名称节点就无法收到来自一些数据节点的心跳信息,这时,这些数据节点就会被标记为“宕机”,节点上面的所有数据都会被标记为“不可读”,名称节点不会再给它们发送任何 I/O 请求
这时,有可能出现一种情况,即由于一些数据节点的不可用,会导致一些数据块的副本数量小于冗余因子
名称节点会定期检查这种情况,一旦发现某个数据块的副本数量小于冗余因子,就会启动数据冗余复制,为它生成新的副本
HDFS 和其他分布式文件系统的最大区别就是可以调整冗余数据的位置
网络传输和磁盘错误等因素,都会造成数据错误
客户端在读取到数据后,会采用 md5 和 sha1 对数据块进行校验,以确定读取到正确的数据
在文件被创建时,客户端就会对每一个文件块进行信息摘录,并把这些信息写入到同一个路径的隐藏文件里面
当客户端读取文件的时候,会先读取该信息文件,然后,利用该信息文件对每个读取的数据块进行校验,如果校验出错,客户端就会请求到另外一个数据节点读取该文件块,并且向名称节点报告这个文件块有错误,名称节点会定期检查并且重新复制这个块
FileSystem 是一个通用文件系统的抽象基类,可以被分布式文件系统继承,所有可能使用 Hadoop 文件系统的代码,都要使用这个类
Hadoop 为 FileSystem 这个抽象类提供了多种具体实现
DistributedFileSystem 就是 FileSystem 在 HDFS 文件系统中的具体实现
FileSystem 的 open() 方法返回的是一个输入流 FSDataInputStream 对象,在 HDFS 文件系统中,具体的输入流就是 DFSInputStream;FileSystem 中的 create() 方法返回的是一个输出流 FSDataOutputStream 对象,在 HDFS 文件系统中,具体的输出流就是 DFSOutputStream。
Hadoop 提供了关于 HDFS 在 Linux 操作系统上进行文件操作的常用 Shell 命令以及 Java API 。同时还可以利用 Web 界面查看和管理 Hadoop 文件系统
备注:Hadoop 安装成功后,已经包含 HDFS 和 MapReduce,不需要额外安装。而 HBase 等其他组件,则需要另外下载安装。
在学习 HDFS 编程实践前,我们需要启动 Hadoop 。执行如下命令:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。