当前位置:   article > 正文

Hadoop_如果把一个641mb的上传到hadoop的文件系统中,如果hdfs副本数设为3,则在datano

如果把一个641mb的上传到hadoop的文件系统中,如果hdfs副本数设为3,则在datano

     大数据: 就是对海量数据进行分析处理,得到一些有价值的信息,然后帮助企业做出判断和决策.\

 

 处理流程:1:获取数据 2:处理数据, 展示结果

Hadoop:

   大数据存储 :HDFS   hadoop Distributed  file  System

   大数据计算:MapReduce

大文件怎么存储?

为了保存大文件, 需要把文件放在多个机器上 这就是分步式文件系统

 以文件系统的形式提供海量的数据存储服务: 

  • 文件要分块 block(128M)

  • 不同的块放在不同的 HDFS 节点
  • 怎么访问呢?
  •  为了对外提供统一的访问, 让外部可以像是访问本机一样访问分布式文件系统
  • 有一个统一的 HDFS 主从  Master/slave 结构

  • 名字节点 NameNode 分布式文件的管理者 它负责文件系统的命名空间

  •  集群配置和数据块的复制等

  • 数据节点 DataNode 文件存储的基本单元 数据块的形式保存了HDfsd

  • 文件的内容和数据块大小是64mb

  • 为保证容错   一般副本数为3 一份数据保存在3 个不同的地方

  • 对用户是透明的

  • 的数据校验信息

  • 文件 以块的放在磁盘中的

  • 和客户端 Client 三个角色

  •  

  •  

  • 它保存整个系统的文件信息

  • 所有的文件元数据的修改都从 Master 

  • 支持超大文件  这里指 Mb  GB  hadoop 文件会v存储 TB = 1024GB

  • P =1024T 能够支持这种级别的数据。

  • 检测和快速应对应对硬件故障。一般 Hdfs 系统存储在百台千台存储文件的

  • 服务期组成,意味着会出现很高的故障 。 有自动回复。

  •  流式访问数据。HDFS 处理数据规模的都比较大  注重的是数据的处理

  • 不是数据的访问速度

  •  一致性模型。大多都是一次写入 多次读取。

  • HDFS  不适合 延迟 数据反问 和 数据大量的小文件

  • 多用户写入放修改文件。

  •  

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/276757
推荐阅读
相关标签
  

闽ICP备14008679号