赞
踩
目录
主机名称 | IP | 资源 | 部署角色 |
hadoop01 | 192.168.170.136 | 2cpu 4G | master、regionserver |
hadoop02 | 192.168.170.137 | 2cpu 4G | master、regionserver |
hadoop03 | 192.168.170.138 | 2cpu 4G | regionserver |
首先保证 Zookeeper 集群的正常部署,并启动之。
安装教程:【Zookeeper 初级】02、Zookeeper 集群部署-CSDN博客
Hadoop 集群的正常部署并启动。
安装教程:Hadoop YARN HA 集群安装部署详细图文教程_hadoop yarn部署-CSDN博客
HBase 官方下载地址:Apache Download Mirrors
- (base) [root@hadoop01 ~]# ls
- hbase-2.5.6-bin.tar.gz
-
- # 解压 Hbase 到指定目录
- (base) [root@hadoop01 ~]# tar -zxvf hbase-2.5.6-bin.tar.gz -C /bigdata/
- (base) [root@hadoop01 ~]# cd /bigdata/
- (base) [root@hadoop01 /bigdata]# mv hbase-2.5.6 hbase
-
- # 配置环境变量
- (base) [root@hadoop01 /bigdata]# vim /etc/profile
- # hbase
- export HBASE_HOME=/bigdata/hbase
- export PATH=$PATH:$HBASE_HOME/bin
-
- # 使用 source 让配置的环境变量生效
- (base) [root@hadoop01 /bigdata]# source /etc/profile
- [root@hadoop01 /bigdata]# cd /bigdata/hbase/conf/
- [root@hadoop01 /bigdata/hbase/conf]# vim hbase-env.sh
-
- # 关闭 hbase 自带zk,使用自己搭建的 zookeeper 集群
- export HBASE_MANAGES_ZK=false
- # 设定 hbase 的内存为 2G,生产环境中可开启设置
- #export HBASE_HEAPSIZE=2G
- # 增加系统环境配置, 必须在/etc/profile定义JAVA_HOME
- source /etc/profile
- export JAVA_HOME=/usr/java/jdk1.8.0_381
- # 存放 PID 文件的目录
- export HBASE_PID_DIR=/bigdata/hbase/pids
- # 避免 master 启动报错类冲突
- export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
- [root@hadoop01 /bigdata/hbase/conf]# vim hbase-site.xml
- <!-- hbase 在 hdfs 中的存储位置, 如果 hdfs 是 ha 模式, 那就把 hadoop01 换成逻辑集群名(比如我的是 mycluster,可在你的 hadoop 配置文件 core-site.xml 查看) 并且创建 hdfs-site.xml 软连接 -->
- <!-- hbase 在 hdfs 中的存储位置 -->
- <property>
- <name>hbase.rootdir</name>
- <value>hdfs://hadoop01/hbase</value>
- </property>
-
- <!-- 开启 hbase 的全分布式 -->
- <property>
- <name>hbase.cluster.distributed</name>
- <value>true</value>
- </property>
-
- <!-- zookeeper 的端口号 -->
- <property>
- <name>hbase.zookeeper.property.clientPort</name>
- <value>2181</value>
- </property>
-
- <!-- zookeeper 集群的主机名 -->
- <property>
- <name>hbase.zookeeper.quorum</name>
- <value>hadoop01,hadoop02,hadoop03</value>
- </property>
-
- <!-- hbase 的临时文件存储路径 -->
- <property>
- <name>hbase.tmp.dir</name>
- <value>/bigdata/hbase/tmpdata</value>
- </property>
-
- <!-- 开启配置防止 hmaster 启动问题 -->
- <property>
- <name>hbase.unsafe.stream.capability.enforce</name>
- <value>false</value>
- </property>
-
- <!-- 监控页面端口 -->
- <property>
- <name>hbase.master.info.port</name>
- <value>60010</value>
- </property>
- [root@hadoop01 /bigdata/hbase/conf]# vim regionservers
- hadoop01
- hadoop02
- hadoop03
- [root@hadoop01 ~]# mkdir -p /bigdata/hbase/tmpdata
-
- # 如果 hadoop 是集群模式(HA 模式),则执行以下步骤
- (base) [root@hadoop01 ~]# ln -s /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop/core-site.xml /bigdata/hbase/conf/core-site.xml
- (base) [root@hadoop01 ~]# ln -s /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop/hdfs-site.xml /bigdata/hbase/conf/hdfs-site.xml
- [root@hadoop01 ~]# scp -r /bigdata/hbase 192.168.170.137:/bigdata/hbase
- [root@hadoop01 ~]# scp -r /bigdata/hbase 192.168.170.138:/bigdata/hbase
-
- # 并修改 /etc/profile 环境变量(其他节点),同 1.3 的步骤一样
- # 只启动本节点 master
- hbase-daemon.sh start master
-
- # 启动所有从节点
- hbase-daemon.sh start regionserver
- # 只启动本机器的 master 和所有机器的从节点, 不推荐, 推荐使用 daemon 脚本
- start-hbase.sh
-
- [root@hadoop01 ~]# jps
- 1264 RunJar
- 2512 JournalNode
- 1442 RunJar
- 2212 DataNode
- 2789 DFSZKFailoverController
- 3189 ResourceManager
- 1734 QuorumPeerMain
- 3382 NodeManager
- 7368 HMaster
- 2028 NameNode
- 7614 HRegionServer
- 7711 Jps
- # 只停止本节点的 master 和所有节点的 regionserver
- stop-hbase.sh
启动成功后,可以通过 “192.168.170.136:60010” 的方式来访问 HBase 管理页面,例如:
在 HBase 中 HMaster 负责监控 HRegionServer 的生命周期,均衡 RegionServer 的负载,如果 HMaster 挂掉了,那么整个 HBase 集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以 HBase 支持对 HMaster 的高可用配置。
- # 可以随意选择任意一个节点作为 Backup Master,这里我以 hadoop02节点
- (base) [root@hadoop02 /bigdata/hbase/conf]# hbase-daemon.sh start master
- (base) [root@hadoop02 /bigdata/hbase/conf]# jps
- 1570 DataNode
- 35123 Jps
- 1701 JournalNode
- 34694 HRegionServer
- 1865 DFSZKFailoverController
- 2009 ResourceManager
- 2121 NodeManager
- 1338 QuorumPeerMain
- 1466 NameNode
- 35050 HMaster
访问 Backup Master 页面:192.168.170.137:60010
刷新 hadoop01 页面:
至此 HBase 高可用集群部署完毕!
在新节点初始化并拷贝安装目录。
- # 在新节点启动 master
- hbase-daemon.sh start regionserver
-
- # 修改各节点的 conf/regionservers,增加新节点的 ip
- vi conf/regionservers
-
- # 进入 hbase shell, 开启重新分配 region 数据, 这是hbase的一个周期性工作, 默认 5 分钟
- hbase shell
- balance_switch true
-
- # 执行命令查看当前 hbase 的负载均衡 balance 是否开启
- # 注意这个命令没有写错, 不是 balance_switch status, status 是将 balance 状态强制转换为 false
- balancer_enabled
-
- # 立即进行一次均衡操作
- # 当前各节点的 region 数量可以在前端页面查看
- balancer
上一篇文章:HBase 详细图文介绍-CSDN博客
下一篇文章:HBase shell 基础实操-CSDN博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。