赞
踩
[root@node1 ~]# tar -zxvf hbase-2.4.17-bin.tar.gz -C /app/
export JAVA_HOME=/usr/local/jdk1.8.0_251
#用我们自己的zk集群
export HBASE_MANAGES_ZK=false
hbase.tmp.dir:本地文件系统的临时目录,默认是
j
a
v
a
.
i
o
.
t
m
p
d
i
r
/
h
b
a
s
e
−
{java.io.tmpdir}/hbase-
java.io.tmpdir/hbase−{user.name};
hbase.rootdir:hbase持久化的目录,被所有regionserver共享,默认
h
b
a
s
e
.
t
m
p
.
d
i
r
/
h
b
a
s
e
,一般设置为
h
d
f
s
:
/
/
n
a
m
e
n
o
d
e
.
e
x
a
m
p
l
e
.
o
r
g
:
9000
/
h
b
a
s
e
类似,带全限定名;
h
b
a
s
e
.
c
l
u
s
t
e
r
.
d
i
s
t
r
i
b
u
t
e
d
:
h
b
a
s
e
集群模式运作与否的标志,默认是
f
a
l
s
e
,开启需要设置为
t
r
u
e
,
f
a
l
s
e
时启动
h
b
a
s
e
会在一个
j
v
m
中运行
h
b
a
s
e
和
z
k
;
h
b
a
s
e
.
z
o
o
k
e
e
p
e
r
.
q
u
o
r
u
m
:重要的也是必须设置的,启动
z
k
的服务器列表,逗号分隔,
c
l
u
s
t
e
r
模式下必须设置,默认是
l
o
c
a
l
h
o
s
t
,
h
b
a
s
e
客户端也需要设置这个值去访问
z
k
;
h
b
a
s
e
.
z
o
o
k
e
e
p
e
r
.
p
r
o
p
e
r
t
y
.
d
a
t
a
D
i
r
:
Z
o
o
K
e
e
p
e
r
的
z
o
o
.
c
o
n
f
中的配置。快照的存储位置,默认是
:
{hbase.tmp.dir}/hbase,一般设置为hdfs://namenode.example.org:9000/hbase类似,带全限定名; hbase.cluster.distributed:hbase集群模式运作与否的标志,默认是false,开启需要设置为true,false时启动hbase会在一个jvm中运行hbase和zk; hbase.zookeeper.quorum:重要的也是必须设置的,启动zk的服务器列表,逗号分隔,cluster模式下必须设置,默认是localhost,hbase客户端也需要设置这个值去访问zk; hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。快照的存储位置,默认是:
hbase.tmp.dir/hbase,一般设置为hdfs://namenode.example.org:9000/hbase类似,带全限定名;hbase.cluster.distributed:hbase集群模式运作与否的标志,默认是false,开启需要设置为true,false时启动hbase会在一个jvm中运行hbase和zk;hbase.zookeeper.quorum:重要的也是必须设置的,启动zk的服务器列表,逗号分隔,cluster模式下必须设置,默认是localhost,hbase客户端也需要设置这个值去访问zk;hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。快照的存储位置,默认是:{hbase.tmp.dir}/zookeeper;
hbase.unsafe.stream.capability.enforce:控制HBase是否检查流功能(hflush / hsync),如果您打算在rootdir表示的LocalFileSystem上运行,那就禁用此选项
hbase.local.dir:本地文件系统被用在本地存储的目录,默认${hbase.tmp.dir}/local/;
hbase.master.port:hbase master绑定的端口,默认是60000;
hbase.master.info.port:hbase master web 界面的端口,默认是60010,设置为-1可以禁用ui;
hbase.master.info.bindAddress:master web界面的绑定地址,默认是0.0.0.0;
需要在哪些机器启动regionservers 把机器添加到regionservers文件中
[root@node1 conf]# more regionservers
node1
node2
node3
[root@node1 app]# scp -r hbase-2.4.17/ node2:$PWD
[root@node1 app]# scp -r hbase-2.4.17/ node3:$PWD
启动前要检查hdfs 、和zk 集群是否正常
[root@node1 app]# hdfs dfsadmin -report #hdfs的报告状态
#启动hbase
[root@node1 app]# ./hbase-2.4.17/bin/start-hbase.sh
启动完后,还可以在集群中找任意一台机器启动一个备用的master
bin/hbase-daemon.sh start master
新启的这个master会处于backup状态
hbase region角色之间的信息通信是通过zk完成的
可以去zk 查看节点信息
[root@node1 app]# ./zookeeper-3.7.1/bin/zkCli.sh
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
[外链图片转存中…(img-MgSUQpEF-1712520381699)]
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。