赞
踩
启动hadoop集群
start-all.sh
zkServer.sh start
启动HBase
start-hbase.sh
进入hbase shell
hbase shell
创建的表使用自动拆分命令
create 'stu',{METADATA=>{'SPLIT_POLICY'=>'org.apache.hadoop.hbase.regionserver.KeyPrefixRegionSplitPolicy'}},{NAME=>'sc'}
第二关:预分区
具体预分区配置要求如下所述:
文本文件的位置为:/app/hbase/
;
文本文件名为:split.txt
;
vi /app/hbase/split.txt
写入:
1111
2222
3333
4444
5555
保存退出
# 定义预分区数组
splits='["1111", "2222", "3333", "4444", "5555"]'
# 读取split.txt文件内容并创建预分区数组
splits="`cat /app/hbase/split.txt | tr '\n' ',' | sed 's/,$//'`"
下一步必须先进入
hbase shell
# 创建表Fa,并指定预分区和列族info
create 'Fa', 'info', {SPLITS => split("$splits")}
插入数据
put 'Fa', '1001', 'info:s_num', '1001'
put 'Fa', '1001', 'info:s_name', 'zs'
put 'Fa', '1001', 'info:s_sex', 'm'
============================
put 'Fa', '2001', 'info:s_num', '2001'
put 'Fa', '2001', 'info:s_name', 'ls'
put 'Fa', '2001', 'info:s_sex', 'w'
==========================
# 以此类推,插入其他行数据...
# 插入数据 1001,zs,m hbase(main):002:0> put 'students', '1001', 'info:s_num', '1001' hbase(main):003:0> put 'students', '1001', 'info:s_name', 'zs' hbase(main):004:0> put 'students', '1001', 'info:s_sex', 'm' # 插入数据 2001,ls,w hbase(main):005:0> put 'students', '2001', 'info:s_num', '2001' hbase(main):006:0> put 'students', '2001', 'info:s_name', 'ls' hbase(main):007:0> put 'students', '2001', 'info:s_sex', 'w' # 插入数据 3001,ww,w hbase(main):008:0> put 'students', '3001', 'info:s_num', '3001' hbase(main):009:0> put 'students', '3001', 'info:s_name', 'ww' hbase(main):010:0> put 'students', '3001', 'info:s_sex', 'w' # 插入数据 4001,zl,m hbase(main):011:0> put 'students', '4001', 'info:s_num', '4001' hbase(main):012:0> put 'students', '4001', 'info:s_name', 'zl' hbase(main):013:0> put 'students', '4001', 'info:s_sex', 'm' # 插入数据 5001,hl,m hbase(main):014:0> put 'students', '5001', 'info:s_num', '5001' hbase(main):015:0> put 'students', '5001', 'info:s_name', 'hl' hbase(main):016:0> put 'students', '5001', 'info:s_sex', 'm'
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。