当前位置:   article > 正文

Hbase基础(一)——安装与使用_hbase安装

hbase安装

目录

一、前言

二、Hbase的安装与配置

1、Hbase的安装

上传、解压、重命名

2、Hbase的配置

配置环境变量

修改hbase-site.xml文件 

 修改hbase-env.sh文件

修改regionservers文件

创建hbase的日志存储文件

分发文件至其他节点

3、Hbase的运行

4、Hbase的高可用配置


一、前言

        Hbase是一个分布式的、面向列的开源数据库,有区别于传统的行式数据库(如Mysql等),与Hive数据仓库相比,更适合实时存储数据场景,但是与传统的列式数据库相比,更适合键值对的数据存取或者有序的数据存取。Hbase的版本有很多,读者在下载Hbase的压缩包之前,先去Hbase官网查看不同版本的hadoop对哪些版本的Hbase支持。本系列文章是基于hadoop集群搭建后的入门学习,关于hadoop集群搭建,请自行查看笔者发布的hadoop系列文章

https://blog.csdn.net/weixin_63507910/article/details/128608040https://blog.csdn.net/weixin_63507910/article/details/128608040

二、Hbase的安装与配置

1、Hbase的安装

        本次使用的Hbase版本为2.4.11,Hadoop版本为2.10.1。这里笔者提供一个下载网址,读者可以参考下载。

https://dlcdn.apache.org/hbase/https://dlcdn.apache.org/hbase/

上传、解压、重命名

  1. 将下载好Hbase压缩包上传到指定的目录,这里笔者上传到存放压缩包的/export/software/目录下
  2. #使用rz命令,将本地压缩包上传到linux指定目录上
  3. 没有该命令,先输入以下指令安装上传文件工具rz软件
  4. yum install lrzsz -y
  5. rz
  6. 进入到上传压缩包的指定目录,进行解压
  7. cd /export/software/
  8. 这里笔者,将压缩包解压到专门放置软件的/export/servers/目录下
  9. tar -zxvf hbase-2.4.11-bin.tar.gz -C /export/servers/
  10. 对文件进行重命名,便于后续管理
  11. mv /export/software/hbase-2.4.11-bin.tar.gz /export/servers/hbase

2、Hbase的配置

配置环境变量

  1. vi /etc/profile
  2. export HBASE_HOME=/export/servers/hbase
  3. export PATH=$PATH:$HBASE_HOME/bin
  4. 刷新环境变量,使配置生效
  5. source /etc/profile

修改hbase-site.xml文件 

  1. vi hbase-site.xml
  2. <configuration>
  3. <property>
  4. <name>hbase.cluster.distributed</name>
  5. <value>true</value>
  6. </property>
  7. <property>
  8. <name>hbase.tmp.dir</name>
  9. <value>/export/data/hbasedata</value>
  10. </property>
  11. <property>
  12. <name>hbase.master.maxclockskew</name>
  13. <value>180000</value>
  14. </property>
  15. <property>
  16. <name>hbase.rootdir</name>
  17. <value>hdfs://hadoop01:9000/hbase</value>
  18. </property>
  19. <property>
  20. <name>hbase.zookeeper.property.dataDir</name>
  21. <value>/export/data/zookeeper/zkdata</value>
  22. </property>
  23. <property>
  24. <name>hbase.zookeeper.quorum</name>
  25. <value>hadoop01,hadoop02,hadoop03</value>
  26. </property>
  27. <property>
  28. <name>hbase.unsafe.stream.capability.enforce</name>
  29. <value>false</value>
  30. </property>
  31. <property>
  32. <name>hbase.master.info.port</name>
  33. <value>16010</value>
  34. </property>
  35. </configuration>
  36. 这里需要注意,hadoop的各个端口号的区别:
  37. 8020是默认rpc的端口号,一般用于IDE远程使用Hadoop集群,是程序和程序之间的连接。
  38. 9000端口:是HDFS默认的端口号,提供文件系统的端口供client角色寻找namenode角色的端口号,是进程之间的调用。
  39. 但是在core-site.xml文件的配置当中,如果hdfs://hadoop01:9000改为hdfs://hadoop01,则默认端口号为8020
  40. <property>
  41. <name>fs.defaultFS</name>
  42. <value>hdfs://hadoop01:9000</value>
  43. </property>
  44. 50070:namenode提供给操作者使用Web访问的端口号,是操作者和程序之间的端口号
  45. <property>
  46. <name>dfs.namenode.http-address.mycluster.nn1</name>
  47. <value>hadoop01:50070</value>
  48. </property>
  49. 50090:secondarynamenode的端口号,这个也是Web访问的端口号
  50. <property>
  51. <name>dfs.namenode.secondary.http-address</name>
  52. <value>hadoop02:50090</value>
  53. </property>

 修改hbase-env.sh文件

  1. vi hbase-env.sh
  2. export JAVA_HOME=/export/servers/jdk
  3. export HBASE_MANAGES_ZK=false

修改regionservers文件

  1. vi regionservers
  2. hadoop01
  3. hadoop02
  4. hadoop03

创建hbase的日志存储文件

  1. 这里需要注意创建文件要与hbase-site.xml中的配置相符
  2. property>
  3. <name>hbase.tmp.dir</name>
  4. <value>/export/data/hbasedata</value>
  5. </property>
  6. mv /export/data/hbasedata

分发文件至其他节点

  1. 将Hadoop的配置文件复制到Hbase的conf/目录下
  2. cd /export/servers/hadoop-2.10.1/etc/hadoop/
  3. cp -r core-site.xml hdfs-site.xml /export/servers/hbase/conf/
  4. 将hadoop01上Hbase文件分发给hadoop02、hadoop03
  5. scp -r /export/servers/hbase hadoop02:/export/servers/
  6. scp -r /export/servers/hbase hadoop03:/export/servers/
  7. scp -r /etc/profile hadoop02:/etc/
  8. scp -r /etc/profile hadoop03:/etc/
  9. scp -r /export/data/hbasedata hadoop02:/export/data/
  10. scp -r /export/data/hbasedata hadoop03:/export/data/
  11. 在hadoop02、hadoop03上刷新环境变量
  12. source /etc/profile

3、Hbase的运行

  1. 启动、停止Hbase集群
  2. start-hbase.sh
  3. stop-hbase.sh
  4. 查看hadoop01的进程
  5. jps
  6. 2517 HBaseConfTool
  7. 2886 Jps
  8. 2712 HMaster
  9. 2841 HRegionServer
  10. 查看hadoop02的进程
  11. jps
  12. 2210 HRegionServer
  13. 2258 Jps
  14. 查看hadoop03的进程
  15. jps
  16. 2227 HRegionServer
  17. 2275 Jps
  18. 1946 JournalNode
  19. 登录Hbase的Web界面
  20. http://hadoop01:16010

4、Hbase的高可用配置

  1. Hbase的高可用的配置很简单,在hbase的conf/目录下创建一个backup-masters文件,
  2. 在里面添加参数即可。Hbase的高可用与hadoop高可用相似,当集群启动后,每台虚拟机上
  3. 都存在HMaster进程,但是只有一台虚拟机的HMaster进程是处于活跃状态的,其他处于
  4. 待机状态,当处于活跃状态的HMaster进程因为某些原因停止,其他两台处于待机的HMster进程,
  5. 则会随机一台处于活跃状态保证Hbase集群的正常使用。
  6. 在此之前,先停止hbase
  7. stop-hbase.sh
  8. 配置内容如下
  9. hadoop02
  10. hadoop03
  11. 分发至其他节点
  12. scp -r backup-masters hadoop02:/export/servers/hbase/conf/
  13. scp -r backup-masters hadoop03:/export/servers/hbase/conf/
  14. 再次启动,可在页面查看变化

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/391394
推荐阅读
相关标签
  

闽ICP备14008679号