当前位置:   article > 正文

大数据----31.hbase安装启动_启动hbase

启动hbase

二.Hbase安装
先前安装:

  1. Zookeeper 正常部署
    首先保证 Zookeeper 集群的正常部署,并启动之。
    三台机器都执行:zkServer.sh start
  2. Hadoop 正常部署
    Hadoop 集群的正常部署并启动。
    主节点上进行 :start-all.sh

在这里插入图片描述

1.HBase 的获取
一定要对照他的版本对应;
在这里插入图片描述
1.获取hbase软件
http://archive.apache.org/dist/hbase/ 下载地址
我们的版本是 hadoop2.7.3 版本; 使用1.3.2的即可;
在这里插入图片描述
2. 上传到linux服务器中;直接上传到主服务器 hadoop06机器即可(在一台机器上):
在这里插入图片描述
3.解压软件:解压到/usr/local/ 文件夹 (在一台机器上)
[root@hadoop06 ~]# tar -zxvf hbase-1.3.2-bin.tar.gz -C /usr/local/
在这里插入图片描述
3. 进行环境变量的配置;(在一台机器上进行配置;然后下分发给其他机器)
在这里插入图片描述
配置环境变量文件:etc/profile
vi /etc/profile
在这里插入图片描述
在这里插入图片描述
也可以使用工具对他进行编辑:
在这里插入图片描述
配置habse的环境变量:
在这里插入图片描述
export HBASE_HOME=/usr/local/hbase-1.3.2
在PATH中添加:
让我们的配置起作用; source /etc/profile
在这里插入图片描述
5. 查看下hbase的启动程序所在的位置中的命令:
/usr/local/hbase-1.3.2/bin/
在这里插入图片描述
6.进行hbase的配置文件的修改操作:修改文件
1.hbase-env.sh
在这里插入图片描述

需要修改的内容:(分别开启他的注释修改内容即可;)
export JAVA_HOME=/usr/local/java/jdk1.8.0_211/
在这里插入图片描述

export HBASE_MANAGES_ZK=false,表示不引用 hbase 自带的 zookeeper,用我们自己安装的
在这里插入图片描述
2.修改另一个配置文件:hbase-site.xml 只要修改的是数据存储hdfs位置:
在这里插入图片描述
修改的内容为:
在这里插入图片描述

需要修改:

在这里插入图片描述

<configuration>
<property>
<!-- 1.指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://hadoop06:9000/hbase</value>
</property>
<property>
<!-- 2.指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>16000</value><!--这里注意了,只需端口即可,不必再写主机名称了!-->
</property>
<property>
<!-- 3.指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop06:2181,hadoop07:2181,hadoop08:2181</value>
</property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  1. 修改配置文件 regionservers 规定区域范围

把hadoop06作为主节点;hadoop07;hadoop08 作为从节点使用在这里插入图片描述
7.把配置好的文件进行分发:
scp -r /usr/local/hbase-1.3.2 hadoop07:/usr/local
scp -r /usr/local/hbase-1.3.2 hadoop08:/usr/local
在这里插入图片描述
这个时候我们已经包hbase的所有文件都已经下发到我们的其他机器中:
注意:在启动之前需要进行时间的统一;(我们使用的是和主节点的时间同步;)
在这里插入图片描述

也可以设置每个的时间服务器:
在这里插入图片描述

7.开始启动hbase;
1.检查hadoop启动和zookeeper的q启动:
在这里插入图片描述
2.启动hbase(在hadoop06上执行) 在主机上启动即可;
start-hbase.sh
在这里插入图片描述
如果报错要注意他的提示:是我们在里边进行了注释:
在这里插入图片描述
8. 通过web来访问:http://192.168.64.160:16010/
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  1. 停止命令
    stop-hbase.sh

现在就形成了一个使用zookeeper来维护的hbase集群
10. 数据存储在对用的hadoop中的HDFS中;
11.原数据存储在对应的管理zookeeper中:
在这里插入图片描述
在这里插入图片描述
可以通过进行这个机器中的zookeeper中取查看他的具体:

[root@hadoop07 ~]# zkCli.sh

在这里插入图片描述
在这里插入图片描述

这个就是生产的原数据位置;
当你把这个服务器关闭之后; 他会收到zookeeper的维护; 就会让其他的机器来进行维护;

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/586417
推荐阅读
相关标签
  

闽ICP备14008679号