当前位置:   article > 正文

虚拟机centos7中安装hbase_centos7 hbase安装

centos7 hbase安装

1、下载包,并上传到虚拟机,解压至对应目录

Apache HBase – Apache HBase Downloads

tar -zxvf /tempupload/hbase-2.4.11-bin.tar.gz -C /opt/module
2、更改文件名为hbase

mv hbase-2.4.11 hbase
3、hbase-env.sh配置

export JAVA_HOME=/usr/local/java/jdk1.8.0_161

export HBASE_MANAGES_ZK=false

(HBase里面自带了一个ZooKeeper,对应的值为是否使用这个自带的ZooKeeper,我使用自己的ZooKeeper,所以修改为false)

4、regionservers配置(暂时只配了一台虚拟机)

hadoop100(自己虚拟机的主机地址)

5、hbase-site.xml配置

  1. <property>
  2. <name>hbase.cluster.distributed</name>
  3. <value>true</value>
  4. </property>
  5. <property>
  6. <name>hbase.tmp.dir</name>
  7. <value>./tmp</value>
  8. </property>
  9. <property>
  10. <name>hbase.unsafe.stream.capability.enforce</name>
  11. <value>false</value>
  12. </property>
  13. <property>
  14. <name>hbase.rootdir</name>
  15. <value>hdfs://hadoop100:9000/hbase</value>
  16. </property>
  17. <property>
  18. <name>hbase.master.port</name>
  19. <value>16000</value>
  20. </property>
  21. <property>
  22. <name>hbase.master.info.port</name>
  23. <value>16010</value>
  24. </property>
  25. <property>
  26. <name>hbase.zookeeper.property.clientPort</name>
  27. <value>2181</value>
  28. </property>
  29. <property>
  30. <name>hbase.zookeeper.quorum</name>
  31. <value>hadoop100</value>
  32. </property>
  33. <property>
  34. <name>hbase.zookeeper.property.dataDir</name>
  35. <value>/tmp/zookeeper/data</value>
  36. </property>

并创建配置中对应的目录tmp/hbase

配置zookeeper的目录要与zookeeper的配置目录一致

6、环境变量配置

  1. vi /etc/profile
  2. #hbase
  3. export HBASE_HOME=/opt/module/hbase
  4. export PATH=$PATH:$HBASE_HOME/bin
  5. #使配置生效 source /etc/profile

7、替换 Hadoop jar 包

查看 HBase 的 Hadoop jar 包

执行以下命令查看 HBase 的 /lib 目录下的 Hadoop jar 包:

ls -rtl /opt/module/hbase/lib/hadoop*

 

存在不一致则删除 HBase 的 Hadoop jar 包

执行以下命令,删除掉 HBase 下的所有 Hadoop 相关的 jar 包:

rm -rf /opt/module/hbase/lib/hadoop*.jar

拷贝 Hadoop 下的 jar 包到 HBase

执行以下命令,拷贝所有 Hadoop 2.10.1 版本下的 jar 包到 HBase 下进行版本统一:

 

find /opt/hadoop/share/hadoop/ -name "hadoop*jar" | xargs -i cp {} /opt/module/hbase/lib/

8、软连接Hadoop配置文件到hbase

ln -s /opt/hadoop/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
ln -s /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml

9、切换到bin目录下启动

(首先保证Hadoop和zookeeper启动)

./hbase-daemon.sh start master

./hbase-daemon.sh start regionserver

9、本机输入地址访问

http://192.168.10.100:16010/

Hadoop访问地址刷新显示hbase

碰到的问题:

1、Hadoop以前访问正常,突然不能访问:关闭防火墙systemctl  stop   firewalld.service 

2、本机访问不了hbase,拒绝连接,通过查看log下的日志问题,报错为Call From localhost.localdomain/127.0.0.1 to 192.168.10.100:9000 failed on connection exception: ja

日志查看命令:tail -n 200 hbase-root-master-localhost.localdomain.log

解决参考方式: 连接hadoop报错:Call From xxxx/169.254.17.210 to 192.168.10.10:9000 failed on connection exception: - 知乎netstat -tlpn

core-site.xml文件中,开放9000端口,之后重启hadoop再查看端口信息,然后再把软引用删除,重新创建软引用,然后重启zookeeper,重启hbase。(原来配置的是localhost)

  1. <!-- 指定NameNode的地址 -->
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://0.0.0.0:9000</value>
  5. </property>
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/458722
推荐阅读
相关标签
  

闽ICP备14008679号