当前位置:   article > 正文

Centos 7 minal 搭建hadoop+zookeeper+hbase 伪分布式环境_hadoopmianmi

hadoopmianmi

系统版本:

centos 7 x86_64 minal

软件版本:

hbase 2.0.5

http://mirrors.tuna.tsinghua.edu.cn/apache/hbase/2.0.5/hbase-2.0.5-bin.tar.gz

zookeeper 3.4.14

http://apache.fayea.com/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz

hadoop 2.7.7

http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz

jdk 1.8.211

oracle 官网

 

  1. #搭建配置顺序:
  2. #jdk
  3. #zookeeper
  4. #hadoop
  5. #hbase
  6. #说明:以下操作全部都用普通管理员账户:hadoop 不建议使用root
  7. #1.先创建几个目录来存放我们的软件:
  8. sudo mkdir /opt/java
  9. sudo mkdir /opt/hadoop
  10. sudo mkdir /opt/hbase
  11. sudo mkdir /opt/zookeeper
  12. #2.解压jdk 压缩包:
  13. sudo tar -zxvf jdk-8u211-linux-x64.tar.gz -C /opt/java/
  14. #3.配置java环境变量(全局的):
  15. export JAVA_HOME=/opt/java/jdk1.8.0_211
  16. export JRE_HOME=/$JAVA_HOME/jre
  17. export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  18. export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
  19. #4.环境变量立即生效:
  20. source /etc/profile
  21. #5.检查java环境: java -version && javac -version
  22. #6.centos 7 的免密登陆:
  23. ssh-keygen -t rsa #生成密匙
  24. ssh-copy-id localhost #给本机免密
  25. ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@192.168.1.20 #给其他节点免密 我这里只是搭建一个单机环境
  26. #此步骤很关键,如果不做使用密匙登陆,hadoop服务启动不起来,会提示权限阻止
  27. #6.修改主机名称,做ip映射(如果是集团网,很多节点建议使用内网dns服务器解析):
  28. sudo vim /etc/hosts
  29. 127.0.0.1 hadoop-master
  30. 192.168.1.10 hadoop-master #这里我的内网ip是192.168.1.10
  31. sudo vim /etc/hostname
  32. hadoop-master #主机名
  33. #7.防火墙设置,网上很多教程直接让你关闭防火墙或者禁用防火墙,其实这种方式不是非常建议,这将把你的主机完全暴露,如果是公网很容易被扫,建议需要使用哪些端口就开放哪些端口,对于防火墙的精细配置,请参考:https://www.linuxidc.com/Linux/2018-11/155155.htm
  34. #这里为了简单一点 我就直接关闭防火墙和selinux
  35. sudo systemctl disable firewalld
  36. sudo vim /etc/selinux/config
  37. SELINUX=disabled
  38. #此时建议重启系统,reboot / init 6 / shutdown -r now
  39. #这里主要做了一些准备工作,创建需要的文件目录、java环境搭建、密匙登陆、修改主机名和ip映射、防火墙设置

接下来,我们搭建zookeeper的环境:

  1. #1.解压zookeeper压缩包:
  2. sudo tar -zxf zookeeper-3.4.14.tar.gz -C /opt/zookeeper/
  3. #2.配置环境变量:
  4. export ZOOKEEPER_HOME=/opt/zookeeper/zookeeper-3.4.14
  5. export PATH=$PATH:$ZOOKEEPER_HOME/bin
  6. #让环境变量立即生效
  7. source /etc/profile
  8. #修改目录所有者:
  9. sudo chown hadoop:hadoop zookeeper-3.4.14
  10. #3.复制配置文件模板并修改:
  11. sudo cp /opt/zookeeper/zookeeper-3.4.14/conf/zoo_sample.cfg /opt/zookeeper/zookeeper-3.4.14/conf/zoo.cfg
  12. sudo vim /opt/zookeeper/zookeeper-3.4.14/conf/zoo.cfg
  13. dataDir=/opt/zookeeper/zookeeper-3.4.14/data
  14. dataLogDir=/opt/zookeeper/zookeeper-3.4.14/logs
  15. #此行在最后添加 1是myid
  16. server.1=hadoop-master:2888:3888
  17. #这里需要创建一些目录和文件:
  18. mkdir /opt/zookeeper/zookeeper-3.4.14/data #存放数据
  19. mkdir /opt/zookeeper/zookeeper-3.4.14/logs #存放日志
  20. echo 1 > /opt/zookeeper/zookeeper-3.4.14/data/myid #标识id 唯一性 这里如果是多个节点 其他节点就需要改这个值
  21. #4.启动zookeeper:
  22. zkServer.sh start
  23. zkServer.sh status #查看状态 我这里是单个节点
  24. #Mode: standalone
  25. #如果你的状态里面存在not error之类的就需要注意了
  26. #5.检查进程:
  27. jps
  28. #此时在应该有两个进程 Jps本身和QuorumPeerMain

接着,我们搭建hadoop环境:

  1. #1.解压hadoop压缩包:
  2. sudo tar -zxf hadoop-2.7.7.tar.gz -C /opt/hadoop/
  3. #2.配置环境变量:
  4. export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7
  5. export PATH=$PATH:$HADOOP_HOME/bin
  6. export PATH=$PATH:$HADOOP_HOME/sbin
  7. export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
  8. #修改目录所有者:
  9. sudo chown hadoop:hadoop /opt/hadoop/hadoop-2.7.7
  10. #3.修改配置文件, 这里需要修改的文件比较多,需要注意:
  11. cd /opt/hadoop/hadoop-2.7.7/etc/hadoop
  12. #第一个文件
  13. sudo vim hadoop-env.sh
  14. #设置java的环境
  15. export JAVA_HOME=/opt/java/jdk1.8.0_211
  16. #第二个文件
  17. sudo vim core-site.xml
  18. <property>
  19. <!--默认文件系统-->
  20. <name>fs.defaultFS</name>
  21. <value>hdfs://hadoop-master:9000</value>
  22. </property>
  23. <property>
  24. <!--数据目录-->
  25. <name>hadoop.tmp.dir</name>
  26. <value>/opt/hadoop/data</value>
  27. </property>
  28. #第三个文件
  29. sudo vim hdfs-site.xml
  30. <property>
  31. <!--集群节点-->
  32. <name>dfs.replication</name>
  33. <value>1</value>
  34. </property>
  35. <property>
  36. <!--数据节点-->
  37. <name>dfs.datanode.data.dir</name>
  38. <value>/opt/hadoop/datanode</value>
  39. <final>true</final>
  40. </property>
  41. <property>
  42. <!--命名空间节点-->
  43. <name>dfs.namenode.name.dir</name>
  44. <value>/opt/hadoop/namenode</value>
  45. <final>true</final>
  46. </property>
  47. <property>
  48. <!--绑定地址, 不设置默认是9870-->
  49. <name>dfs.http.address</name>
  50. <value>0.0.0.0:50070</value>
  51. </property>
  52. #第四个文件
  53. sudo vim yarn-site.xml
  54. <property>
  55. <name>yarn.resourcemanager.hostname</name>
  56. <value>hadoop-master</value>
  57. </property>
  58. <property>
  59. <name>yarn.nodemanager.aux-services</name>
  60. <value>mapreduce_shuffle</value>
  61. </property>
  62. #第五个文件
  63. sudo vim mapred-site.xml
  64. <property>
  65. <name>mapreduce.framework.name</name>
  66. <value>yarn</value>
  67. </property>
  68. #这些都是一些比较简单的配置,其他更详细的配置内容,请访问官方文档
  69. #4.格式化文件系统:
  70. hdfs namenode –format
  71. start-all.sh #启动hadoop
  72. #5.检查hadoop是否正常运行:
  73. jps
  74. #此时此刻,正常的应该多出来了NodeManager、NameNode、DataNode、ResourceManager、SecondaryNameNode几个进程,也可以通过浏览器访问ip:50070 查看到信息,这里注意要使用谷歌或者火狐浏览器,不然ajax的兼容性问题,会出现采集不到数据

最后, 配置hbase环境:

  1. #1.解压hbase压缩包:
  2. sudo tar -zxvf hbase-2.0.5-bin.tar.gz -C /opt/hbase/
  3. #2.配置环境变量:
  4. export HBASE_HOME=/opt/hbase/hbase-2.0.5
  5. export PATH=$PATH:$HBASE_HOME/bin
  6. #修改目录所有者:
  7. sudo chown hadoop:hadoop /opt/hbase/hbase-2.0.5
  8. #3.修改配置文件:
  9. cd /opt/hbase/hbase-2.0.5/conf
  10. #第一个文件
  11. sudo vim hbase-env.sh
  12. export JAVA_HOME=/opt/java/jdk1.8.0_211
  13. export HBASE_CLASSPATH=/opt/hadoop/hadoop-2.7.7/etc/hadoop
  14. export HBASE_MANAGES_ZK=false
  15. #第二个文件
  16. sudo vim hbase-site.xml
  17. <property> 
  18. <name>hbase.rootdir</name> 
  19. <value>hdfs://hadoop-master:9000/hbase</value> 
  20. </property> 
  21. <property> 
  22. <name>hbase.cluster.distributed</name> 
  23. <value>false</value> 
  24. </property> 
  25. <property> 
  26. <name>hbase.zookeeper.quorum</name> 
  27. <value>hadoop-master</value> 
  28. </property> 
  29. <property> 
  30. <name>hbase.zookeeper.property.dataDir</name> 
  31. <value>/opt/zookeeper/zookeeper-3.4.14/data</value> 
  32. </property> 
  33. <property>
  34. <name>hbase.unsafe.stream.capability.enforce</name>
  35. <value>false</value>
  36. </property>
  37. #第三个文件
  38. sudo vim regionservers
  39. hadoop-master
  40. #4.启动:start-hbase.sh
  41. #需要注意的是启动会提醒日志包jar重复这个并不影响使用,可以不管
  42. #5.检查:jps
  43. #正常启动 此时会多出来HMaster HRegionServer 两个进程

至此,就搭建完成!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/531912
推荐阅读
相关标签
  

闽ICP备14008679号