赞
踩
Google(谷歌)拥有全球最强大的搜索引擎。除了搜索业务,Google 还有 Google Maps、Google Earth、Gmail、YouTube 等其他业务。这些应用的共性在于数据量巨大,且要面向全球用户提供实时服务,因此 Google 必须解决海量数据存储和快速处理问题。Google 研发出了简单而又高效的技术,让多达百万台的廉价计算机协同工作,共同完成这些任务,这些技术在诞生几年后才被命名为 Google 云计算技术。Google 云计算技术包括:Google 文件系统 GFS、分布式计算编程模型 MapReduce、分布式锁服务 Chubby、分布式结构化数据表 Bigtable、分布式存储系统 Megastore、分布式监控系统 Dapper、海量数据的交互式分析工具 Dremel,以及内存大数据分析系统 PowerDrill 等。
Google 文件系统(Google File System,GFS)是一个大型的分布式文件系统。它为 Google 云计算提供海量存储,并且与 Chubby、MapReduce 及 Bigtable 等技术结合十分紧密,处于所有核心技术的底层。GFS 不是一个开源的系统,我们仅能从 Google 公布的技术文档来获得相关知识。
当前主流分布式文件系统有 RedHat 的GFS(Global File System)、IBM 的 GPFS、Sun 的 Lustre 等。这些系统通常用于高性能计算或大型数据中心,对硬件设施条件要求较高。以 Lustre 文件系统为例,它只对元数据管理器 MDS 提供容错解决方案,而对于具体的数据存储节点 OST 来说,则依赖其自身来解决容错的问题。例如,Lustre 推荐 OST 节点采用 RAID 技术或 SAN 存储区域网来容错,但由于 Lustre 自身不能提供数据存储的容错,一旦 OST 发生故障就无法恢复,因此对 OST 的稳定性就提出了相当高的要求,从而大大增加了存储的成本,而且成本会随着规模的扩大线性增长。
Google GFS 的新颖之处在于它采用廉价的商用机器构建分布式文件系统,同时将 GFS 的设计与 Google 应用的特点紧密结合,简化实现,使之可行,最终达到创意新颖、有用、可行的完美组合。GFS 将容错的任务交给文件系统完成,利用软件的方法解决系统可靠性问题,使存储的成本成倍下降。GFS 将服务器故障视为正常现象,并采用多种方法,从多个角度,使用不同的容错措施,确保数据存储的安全、保证提供不间断的数据存储服务。
GFS 的系统架构如下图所示。GFS 将整个系统的节点分为三类角色:Client(客户端0、Master(主服务器)和 Chunk Server(数据块服务器)。Client 是 GFS 提供给应用程序的访问接口,它是一组专用接口,不遵守 POSIX 规范,以库文件的形式提供。应用程序直接调用这些库函数,并与该库链接在一起。Master 是 GFS 的管理节点,在逻辑上只有一个,它保存系统的元数据,负责整个文件系统的管理,是 GFS 文件系统中的 “大脑” 。Chunk Server 负责具体的存储工作。数据以文件的形式存储在 Chunk Server 上,Chunk Server 的个数可以有多个,它的数目直接决定了GFS 的规模。GFS 将文件按照固定大小进行分块,默认是64MB,每一块称为一个Chunk(数据块),每个 Chunk 都有一个对应的索引号(Index)。
GFS将整个系统节点分为三类角色:
GFS的实现机制:
GFS的特点:
1、采用中心服务器模式
2、不缓存数据
3、在用户态下实现
4、只提供专用接口
1、Master容错
当Master发生故障时,在磁盘数据保存完好的情况下,可以迅速恢复以上元数据。为了防止Master彻底死机的情况,GFS还提供了Master远程的实时备份。
2、Chunk Server容错
GFS 是一个分布式文件系统,包含从硬件到软件的整套解决方案。除了上面提到的 GFS 的一些关键技术外,还有相应的系统管理技术来支持整个 GFS 的应用,这些技术可能不一定为 GFS 独有。
MapReduce 是 Google 提出的一个软件架构,是一种处理海量数据的并行编程模式,用于大规模数据集(通常大于1TB)的并行运算。Map(映射)、Reduce(化简)的概念和主要思想,都是从函数式编程语言和矢量编程语言借鉴来的。正是由于 MapReduce 有函数式和矢量编程语言的共性,使得这种编程模式特别适合于非结构化和结构化的海量数据的搜索、挖掘、分析与机器智能学习等。
Jeffery Dean 设计一个新的抽象模型, 封装并行处理、容错处理、本地化计算、负载均衡的细节,还提供了一个简单而强大的接口。这就是MapReduce。
MapReduce 这种并行编程模式思想最早是在1995年提出的。与传统的分布式程序设计相比,MapReduce 封装了并行处理、容错处理、本地化计算、负载均衡等细节,还提供了一个简单而强大的接口。MapReduce 把对数据集的大规模操作,分发给一个主节点管理下的各分节点共同完成,通过这种方式实现任务的可靠执行与容错机制。
Map: (in_key, in_value) → {(keyj, valuej) | j = 1…k}
Reduce: (key, [value1,…,valuem]) → (key, final_value)
Map输入参数:in_key 和 in_value,它指明了 Map 需要处理的原始数据
Map输出结果:一组 <key,value> 对,这是经过 Map 操作后所产生的中间结果
Reduce输入参数:(key,[value1,…,valuem])
Reduce工作:对这些对应相同 key 的 value 值进行归并处理
Reduce输出结果:(key, final_value),所有 Reduce 的结果并在一起就是最终结果
(1)MapReduce 函数首先把输入文件分成M块
(2)分派的执行程序中有一个主控程序 Master
(3)一个被分配了 Map 任务的 Worker 读取并处理相关的输入块
(4)这些缓冲到内存的中间结果将被定时写到本地硬盘,这些数据通过分区函数分成R个区
(5)当 Maste r通知执行 Reduce 的 Worker 关于中间 <key,value> 对的位置时,它调用远程过程,从 Map Worker 的本地硬盘上读取缓冲的中间数据
(6)Reduce Worker 根据每一个唯一中间 key 来遍历所有的排序后的中间数据,并且把 key 和相关的中间结果值集合传递给用户定义的 Reduce 函数
(7)当所有的 Map 任务和 Reduce 任务都完成的时候,Master 激活用户程序
由于MapReduce在成百上千台机器上处理海量数据,所以容错机制是不可或缺的。总的来说,MapReduce通过重新执行失效的地方来实现容错。
1、Master失效
Master会周期性地设置检查点(checkpoint),并导出Master的数据。一旦某个任务失效,系统就从最近的一个检查点恢复并重新执行。由于只有一个Master在运行,如果Master失效了,则只能终止整个MapReduce程序的运行并重新开始。
2、Worker失效
Master会周期性地给Worker发送ping命令,如果没有Worker的应答,则Master认为Worker失效,终止对这个Worker的任务调度,把失效Worker的任务调度到其他Worker上重新执行。
第一个步骤
对原始的数据进行分割(Split),得到N个不同的数据分块。
第二个步骤
对每一个数据分块都启动一个Map进行处理。采用桶排序的方法,每个Map中按照首字母将字符串分配到26个不同的桶中。
第三个步骤
对于Map之后得到的中间结果,启动26个Reduce。按照首字母将Map中不同桶中的字符串集合放置到相应的Reduce中进行处理。
从上述过程可以看出,由于能够实现处理过程的完全并行化,因此利用 MapReduce 处理海量数据是非常适合的。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。