赞
踩
1、下载包,并上传到虚拟机,解压至对应目录
Apache HBase – Apache HBase Downloads
tar -zxvf /tempupload/hbase-2.4.11-bin.tar.gz -C /opt/module
2、更改文件名为hbase
mv hbase-2.4.11 hbase
3、hbase-env.sh配置
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
export HBASE_MANAGES_ZK=false
(HBase里面自带了一个ZooKeeper,对应的值为是否使用这个自带的ZooKeeper,我使用自己的ZooKeeper,所以修改为false)
4、regionservers配置(暂时只配了一台虚拟机)
hadoop100(自己虚拟机的主机地址)
5、hbase-site.xml配置
- <property>
- <name>hbase.cluster.distributed</name>
- <value>true</value>
- </property>
- <property>
- <name>hbase.tmp.dir</name>
- <value>./tmp</value>
- </property>
- <property>
- <name>hbase.unsafe.stream.capability.enforce</name>
- <value>false</value>
- </property>
- <property>
- <name>hbase.rootdir</name>
- <value>hdfs://hadoop100:9000/hbase</value>
- </property>
- <property>
- <name>hbase.master.port</name>
- <value>16000</value>
- </property>
- <property>
- <name>hbase.master.info.port</name>
- <value>16010</value>
- </property>
- <property>
- <name>hbase.zookeeper.property.clientPort</name>
- <value>2181</value>
- </property>
- <property>
- <name>hbase.zookeeper.quorum</name>
- <value>hadoop100</value>
- </property>
- <property>
- <name>hbase.zookeeper.property.dataDir</name>
- <value>/tmp/zookeeper/data</value>
- </property>
并创建配置中对应的目录tmp/hbase
配置zookeeper的目录要与zookeeper的配置目录一致
6、环境变量配置
- vi /etc/profile
-
- #hbase
- export HBASE_HOME=/opt/module/hbase
- export PATH=$PATH:$HBASE_HOME/bin
-
- #使配置生效 source /etc/profile
7、替换 Hadoop jar 包
执行以下命令查看 HBase 的 /lib 目录下的 Hadoop jar 包:
ls -rtl /opt/module/hbase/lib/hadoop*
存在不一致则删除 HBase 的 Hadoop jar 包
执行以下命令,删除掉 HBase 下的所有 Hadoop 相关的 jar 包:
rm -rf /opt/module/hbase/lib/hadoop*.jar
执行以下命令,拷贝所有 Hadoop 2.10.1 版本下的 jar 包到 HBase 下进行版本统一:
find /opt/hadoop/share/hadoop/ -name "hadoop*jar" | xargs -i cp {} /opt/module/hbase/lib/
8、软连接Hadoop配置文件到hbase
ln -s /opt/hadoop/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
ln -s /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml
9、切换到bin目录下启动
(首先保证Hadoop和zookeeper启动)
./hbase-daemon.sh start master
./hbase-daemon.sh start regionserver
9、本机输入地址访问
Hadoop访问地址刷新显示hbase
碰到的问题:
1、Hadoop以前访问正常,突然不能访问:关闭防火墙systemctl stop firewalld.service
2、本机访问不了hbase,拒绝连接,通过查看log下的日志问题,报错为Call From localhost.localdomain/127.0.0.1 to 192.168.10.100:9000 failed on connection exception: ja
日志查看命令:tail -n 200 hbase-root-master-localhost.localdomain.log
解决参考方式: 连接hadoop报错:Call From xxxx/169.254.17.210 to 192.168.10.10:9000 failed on connection exception: - 知乎netstat -tlpn
core-site.xml文件中,开放9000端口,之后重启hadoop再查看端口信息,然后再把软引用删除,重新创建软引用,然后重启zookeeper,重启hbase。(原来配置的是localhost)
- <!-- 指定NameNode的地址 -->
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://0.0.0.0:9000</value>
- </property>
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。