当前位置:   article > 正文

Hadoop ----HDFS MapReduce_hadopp dfs-cat

hadopp dfs-cat

在这里插入图片描述

HDFS

NameNode

  • 负责管理DataNode
  • 保存所有的元数据(目录的位置结构 存储的磁盘位置)
  • 是HDFS的核心 是单点故障 一旦出现问题 整个HDFS不在对外提供服务·
  • edits 操作日志文件
  • fsimage元数据文件

SecondaryNameNode

  • 获取NameNode的数据延后将新的NameNode数据进行合并 然后再次写入NameNode中

DataNode

  • 负责数据的存储
  • 数据是按块存储的 hadoop 2.XXX以后 128M
  • DataNode定时(心跳机制) 将自己的状态信息告知 NameNode

副本

  • 对DataNode中的数据块的数据进行备份
  • 默认备份数量是3个
    在这里插入图片描述

归档

打包文件

hadoop archive -archiveName test.har -p /input /outfile
  • 1

查看

hdfs dfs -ls har:///outfile/test.har
  • 1

恢复

hdfs dfs -cp har:///outfile/test.har/1.txt /aaa
  • 1

namenode下的元数据

  • 内存元数据 在服务运行过程中的元数据会保存在内存中 方便快速进行数据操作
  • 文件元数据 按照指定规则去将内存中的元数据持久化的以文件的形式保存在磁盘上
    • edits 编辑文件数据 保存了所有的文件操作
# 文件查看
hdfs oev -i edits文件 -o 输出文件
  • 1
  • 2
  • fsimage 文件,保存了文件信息,数据的磁盘路径信息不在fsimage中保存,有datanode定时告知给namenode
# 文件查看
hdfs oiv  -i fsimage文件 -p 执行文件类型xml -o 输出文件
  • 1
  • 2
  • /excpet/data/hadoop
    • dfs/data name secondayname

在这里插入图片描述

安全机制

- 一旦安全机制被触发就不能执行事务操作,删除、创建、移动。读取数据不受影响
- 副本数量小于1。 副本在没有被创建,删除了数据,
- 副本创建的数量比例不能小于0.999
- 在条件满足后需要等待30s退出安全机制
  • 1
  • 2
  • 3
  • 4

MapReduce 分而治之

  • Map 负责拆分
  • Reduce 负责合并

词频计算
1、创建一个1.txt写入一些单词

2、文件上传到input目录

3、进入/export/server/hadoop-3.3.0/share/hadoop/mapreduce

4、执行 hadoop jar hadoop-mapreduce-examples-3.3.0.jar wordcount /input /output

5、执行查看 hdfs dfs -cat /output/part-r-00000

hadoop jar /export/server/hadoop-3.3.0/share/hadoop/tools/lib/hadoop-streaming-3.3.0.jar -D mapred.reduce.tasks=1 -mapper "python mapper.py" -reducer "python reducer.py" -file /root/mapper.py -file /root/reducer.py -input /input/*  -output /outpy
  • 1

YARN

1.功能作用说明

独立的资源管理平台 协调各个主机的资源(内存 CPU 磁盘)
可以服务多个分布式系统 hadoop sqark

2.三大组件

namenode NN datanode DN secondarynamendoe snn
RecourseManager 需要在主机上进行启动服务 RM

  • 负责协调各个主机资源

NodeManager 需要在主机上进行启动服务 NM

  • 负责监控本机资源状态 汇报给RecourseManager

ApplicationMaster 在进行计算时生成对应进程 AM

  • 完成具体的资源计算调度,会找RecourseManager申请资源 在计算程序中 在计算程序中给计算程序指定相应的资源内容,计算完成后释放资源。

3.yarn调度流程

  1. 计算请求RM (RecourseManager
  2. 生成AM(ApplicationMaster ) 管理每个计算资源
  3. AM评估当前计算需要的资源大小
  4. AM向MR申请资源 资源由RM进行资源调度
  5. Am进行资源计算分配,Map 和 Reduce分别得到对应的计算进行机选操作
  6. contain监控每个计算构成消耗资源情况
  7. 计算结束后AM释放资源并通知AM
  8. RM结束AM
    在这里插入图片描述

4.调度机制

1.FIFO(first in first out) 先进先出 队形形式

在这里插入图片描述

2.**capacity 容量分配 **

在这里插入图片描述

3.pair 公平分配

在这里插入图片描述

4.Hadoop 配置文件 信息说明

hadoop_env.sh 配置用户 配置java环境

core_site.xml 配置核心功能 数据存储位置 ,主节点位置

hdfs_site.xml

mapred_site.xml

yarn_site.xml

works 指定运行的主机名称
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

Hadoop的HA(High Available) 高可用

活动节点

备用节点

活动节点对外提供服务,当活动节点宕机后启用备用节点

hadoop实现高可用是对应HDFS和YARN服务是按高可用节点管理

HDFS服务主要使用NameNode节点

YARN服务主要使用ResourceManager节点

  • Hadoop 2.xxx 高可用配置
1.修改Linux主机名
2.修改IP
3.修改主机名和IP的映射关系 /etc/hosts
4.关闭防火墙
5.ssh免登陆
6.安装JDK,配置环境变量等
7.注意集群时间要同步

	集群部署节点角色的规划(7节点)
	------------------
	server01   namenode   zkfc
	server02   namenode   zkfc
	server03   resourcemanager
	server04   resourcemanager
	server05   datanode   nodemanager      zookeeper     journal node
	server06   datanode   nodemanager      zookeeper     journal node 
	server07   datanode   nodemanager      zookeeper     journal node 

	------------------
	
	集群部署节点角色的规划(3节点)
	------------------
	server01   namenode    resourcemanager  zkfc   nodemanager  datanode   zookeeper   journal node
	server02   namenode    resourcemanager  zkfc   nodemanager  datanode   zookeeper   journal node
	server03   datanode    nodemanager     zookeeper    journal node
	------------------
---------------------------------------------------------------------------------------------------------------	
安装步骤:
	1.安装配置zooekeeper集群
		1.1解压
			tar -zxvf zookeeper-3.4.5.tar.gz -C /home/hadoop/app/
		1.2修改配置
			cd /home/hadoop/app/zookeeper-3.4.5/conf/
			cp zoo_sample.cfg zoo.cfg
			vim zoo.cfg
			修改:dataDir=/home/hadoop/app/zookeeper-3.4.5/tmp
			在最后添加:
			server.1=hadoop05:2888:3888
			server.2=hadoop06:2888:3888
			server.3=hadoop07:2888:3888
			保存退出
			然后创建一个tmp文件夹
			mkdir /home/hadoop/app/zookeeper-3.4.5/tmp
			echo 1 > /home/hadoop/app/zookeeper-3.4.5/tmp/myid
		1.3将配置好的zookeeper拷贝到其他节点(首先分别在hadoop06、hadoop07根目录下创建一个hadoop目录:mkdir /hadoop)
			scp -r /home/hadoop/app/zookeeper-3.4.5/ hadoop06:/home/hadoop/app/
			scp -r /home/hadoop/app/zookeeper-3.4.5/ hadoop07:/home/hadoop/app/
			
			注意:修改hadoop06、hadoop07对应/hadoop/zookeeper-3.4.5/tmp/myid内容
			hadoop06:
				echo 2 > /home/hadoop/app/zookeeper-3.4.5/tmp/myid
			hadoop07:
				echo 3 > /home/hadoop/app/zookeeper-3.4.5/tmp/myid
	
	2.安装配置hadoop集群
		2.1解压
			tar -zxvf hadoop-2.6.4.tar.gz -C /home/hadoop/app/
		2.2配置HDFS(hadoop2.0所有的配置文件都在$HADOOP_HOME/etc/hadoop目录下)
			#将hadoop添加到环境变量中
			vim /etc/profile
			export JAVA_HOME=/usr/java/jdk1.7.0_55
			export HADOOP_HOME=/hadoop/hadoop-2.6.4
			export PATH=$PATH:$JAVA_HOME/cluster1n:$HADOOP_HOME/cluster1n
			
			#hadoop2.0的配置文件全部在$HADOOP_HOME/etc/hadoop下
			cd /home/hadoop/app/hadoop-2.6.4/etc/hadoop
			
			2.2.1修改hadoop-env.sh
			export JAVA_HOME=/home/hadoop/app/jdk1.7.0_55

###############################################################################
				
2.2.2修改core-site.xml
<configuration>
	<!-- HA集群名称,该值要和hdfs-site.xml中的配置保持一致 -->
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://cluster1</value>
	</property>

	<!-- hadoop本地磁盘存放数据的公共目录 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/export/data/ha-hadoop</value>
	</property>

	<!-- ZooKeeper集群的地址和端口-->
	<property>
		<name>ha.zookeeper.quorum</name>
		<value>node1:2181,node2:2181,node3:2181</value>
	</property>
</configuration>

###############################################################################
				
2.2.3修改hdfs-site.xml
<configuration>
	<!--指定hdfs的nameservice为cluster1,需要和core-site.xml中的保持一致 -->
	<property>
		<name>dfs.nameservices</name>
		<value>cluster1</value>
	</property>
	
	<!-- cluster1下面有两个NameNode,分别是nn1,nn2 -->
	<property>
		<name>dfs.ha.namenodes.cluster1</name>
		<value>nn1,nn2</value>
	</property>

	<!-- nn1的RPC通信地址 -->
	<property>
		<name>dfs.namenode.rpc-address.cluster1.nn1</name>
		<value>node1:8020</value>
	</property>

	<!-- nn1的http通信地址 -->
	<property>
		<name>dfs.namenode.http-address.cluster1.nn1</name>
		<value>node1:50070</value>
	</property>

	<!-- nn2的RPC通信地址 -->
	<property>
		<name>dfs.namenode.rpc-address.cluster1.nn2</name>
		<value>node2:8020</value>
	</property>
	
	<!-- nn2的http通信地址 -->
	<property>
		<name>dfs.namenode.http-address.cluster1.nn2</name>
		<value>node2:50070</value>
	</property>

	<!-- 指定NameNode的edits元数据在JournalNode上的存放位置 -->
	<property>
		<name>dfs.namenode.shared.edits.dir</name>
		<value>qjournal://node1:8485;node2:8485;node3:8485/cluster1</value>
	</property>
	
	<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
	<property>
		<name>dfs.journalnode.edits.dir</name>
		<value>/export/data/journaldata</value>
	</property>

	<!-- 开启NameNode失败自动切换 -->
	<property>
		<name>dfs.ha.automatic-failover.enabled</name>
		<value>true</value>
	</property>

	<!-- 指定该集群出故障时,哪个实现类负责执行故障切换 -->
	<property>
		<name>dfs.client.failover.proxy.provider.cluster1</name>
		<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
	</property>

	<!-- 配置隔离机制方法-->
	<property>
		<name>dfs.ha.fencing.methods</name>
		<value>sshfence</value>
	</property>
	
	<!-- 使用sshfence隔离机制时需要ssh免登陆 -->
	<property>
		<name>dfs.ha.fencing.ssh.private-key-files</name>
		<value>/root/.ssh/id_rsa</value>
	</property>
	
	<!-- 配置sshfence隔离机制超时时间 -->
	<property>
		<name>dfs.ha.fencing.ssh.connect-timeout</name>
		<value>30000</value>
	</property>
</configuration>

###############################################################################
			
2.2.4修改mapred-site.xml
<configuration>
<!-- 指定mr框架为yarn方式 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>	

###############################################################################
			
2.2.5修改yarn-site.xml
<configuration>
<!-- 开启RM高可用 -->
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<!-- 指定RM的cluster id -->
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>yrc</value>
</property>
<!-- 指定RM的名字 -->
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<!-- 分别指定RM的地址 -->
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>node1</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>node2</value>
</property>
<!-- 指定zk集群地址 -->
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
			
				
2.2.6修改slaves(slaves是指定子节点的位置,因为要在hadoop01上启动HDFS、在hadoop03启动yarn,所以hadoop01上的slaves文件指定的是datanode的位置,hadoop03上的slaves文件指定的是nodemanager的位置)
hadoop05
hadoop06
hadoop07

2.2.7配置免密码登陆
	#首先要配置hadoop00到hadoop01、hadoop02、hadoop03、hadoop04、hadoop05、hadoop06、hadoop07的免密码登陆
	#在hadoop01上生产一对钥匙
	ssh-keygen -t rsa
	#将公钥拷贝到其他节点,****包括自己****
	ssh-coyp-id hadoop00
	ssh-coyp-id hadoop01
	ssh-coyp-id hadoop02
	ssh-coyp-id hadoop03
	ssh-coyp-id hadoop04
	ssh-coyp-id hadoop05
	ssh-coyp-id hadoop06
	ssh-coyp-id hadoop07

	#注意:两个namenode之间要配置ssh免密码登陆  ssh远程补刀时候需要

			
			
			
###注意:严格按照下面的步骤!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
		2.5启动zookeeper集群(分别在hadoop05、hadoop06、tcast07上启动zk)
			
			bin/zkServer.sh start
			#查看状态:一个leader,两个follower
			bin/zkServer.sh status
			
		2.6手动启动journalnode(分别在在hadoop05、hadoop06、hadoop07上执行)
			hadoop-daemon.sh start journalnode
			#运行jps命令检验,hadoop05、hadoop06、hadoop07上多了JournalNode进程
		
		2.7格式化namenode
			#在hadoop00上执行命令:
			hdfs namenode -format
			#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置的目录下生成个hdfs初始化文件,
			
			把hadoop.tmp.dir配置的目录下所有文件拷贝到另一台namenode节点所在的机器
			scp -r tmp/ hadoop02:/home/hadoop/app/hadoop-2.6.4/
			
			##也可以这样,建议hdfs namenode -bootstrapStandby
		
		2.8格式化ZKFC(在active上执行即可)
			hdfs zkfc -formatZK
		
		2.9启动HDFS(在hadoop00上执行)
			start-dfs.sh

		2.10启动YARN   
			start-yarn.sh
			还需要手动在standby上手动启动备份的  resourcemanager
			yarn-daemon.sh start resourcemanager

		
	到此,hadoop-2.6.4配置完毕,可以统计浏览器访问:
		http://hadoop00:50070
		NameNode 'hadoop01:9000' (active)
		http://hadoop01:50070
		NameNode 'hadoop02:9000' (standby)
	
	验证HDFS HA
		首先向hdfs上传一个文件
		hadoop fs -put /etc/profile /profile
		hadoop fs -ls /
		然后再kill掉active的NameNode
		kill -9 <pid of NN>
		通过浏览器访问:http://192.168.1.202:50070
		NameNode 'hadoop02:9000' (active)
		这个时候hadoop02上的NameNode变成了active
		在执行命令:
		hadoop fs -ls /
		-rw-r--r--   3 root supergroup       1926 2014-02-06 15:36 /profile
		刚才上传的文件依然存在!!!
		手动启动那个挂掉的NameNode
		hadoop-daemon.sh start namenode
		通过浏览器访问:http://192.168.1.201:50070
		NameNode 'hadoop01:9000' (standby)
	
	验证YARN:
		运行一下hadoop提供的demo中的WordCount程序:
		hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar wordcount /profile /out
	
	OK,大功告成!!!

	
			
		
测试集群工作状态的一些指令 :
       hdfs dfsadmin -report	 查看hdfs的各节点状态信息


cluster1n/hdfs haadmin -getServiceState nn1		 获取一个namenode节点的HA状态

scluster1n/hadoop-daemon.sh start namenode  单独启动一个namenode进程


./hadoop-daemon.sh start zkfc   单独启动一个zkfc进程

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176
  • 177
  • 178
  • 179
  • 180
  • 181
  • 182
  • 183
  • 184
  • 185
  • 186
  • 187
  • 188
  • 189
  • 190
  • 191
  • 192
  • 193
  • 194
  • 195
  • 196
  • 197
  • 198
  • 199
  • 200
  • 201
  • 202
  • 203
  • 204
  • 205
  • 206
  • 207
  • 208
  • 209
  • 210
  • 211
  • 212
  • 213
  • 214
  • 215
  • 216
  • 217
  • 218
  • 219
  • 220
  • 221
  • 222
  • 223
  • 224
  • 225
  • 226
  • 227
  • 228
  • 229
  • 230
  • 231
  • 232
  • 233
  • 234
  • 235
  • 236
  • 237
  • 238
  • 239
  • 240
  • 241
  • 242
  • 243
  • 244
  • 245
  • 246
  • 247
  • 248
  • 249
  • 250
  • 251
  • 252
  • 253
  • 254
  • 255
  • 256
  • 257
  • 258
  • 259
  • 260
  • 261
  • 262
  • 263
  • 264
  • 265
  • 266
  • 267
  • 268
  • 269
  • 270
  • 271
  • 272
  • 273
  • 274
  • 275
  • 276
  • 277
  • 278
  • 279
  • 280
  • 281
  • 282
  • 283
  • 284
  • 285
  • 286
  • 287
  • 288
  • 289
  • 290
  • 291
  • 292
  • 293
  • 294
  • 295
  • 296
  • 297
  • 298
  • 299
  • 300
  • 301
  • 302
  • 303
  • 304
  • 305
  • 306
  • 307
  • 308
  • 309
  • 310
  • 311
  • 312
  • 313
  • 314
  • 315
  • 316
  • 317
  • 318
  • 319
  • 320
  • 321
  • 322
  • 323
  • 324
  • 325
  • 326
  • 327
  • 328

在这里插入图片描述

hadoop的HDFS对应一个namenode节点

实现高可用至少需要两个hadoop服务

使用zookeeper完成hadoop 的高可用主要用到了zookeeper的什么功能?

监听机制

临时节点

节点的唯一性

使用zkfc进程监控nn节点并且去连接zk进行状态更新

保证两个主备服务间的数据一致(QJM/Quorum Journal Manager)

hadoop资源调度服务有一个resourcemanager节点

使用zk实现resourcemanager节点的切换

resourcemanager本身不需要存储大量数据,可以直接把一些临时数据和一些nodemanager的信息存到zk

数据同步需要用zk的全局数据一致性
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/694099
推荐阅读
相关标签
  

闽ICP备14008679号