当前位置:   article > 正文

hadoop伪分布式环境搭建_hadoop伪分布式搭建

hadoop伪分布式搭建

虚拟机版本:centos7

jdk版本:1.8

hadoop版本:3.1.3

一、关闭防火墙

查看防火墙状态:

firewall-cmd --state

停止服务: 

systemctl stop firewalld.service

二、配置免密登录

1、开启sshd服务

systemctl start sshd.service

2、进入 ~/.ssh 文件夹

cd ~/.ssh

若不存在该文件夹 可使用以下命令 使用root账户登录后生成

ssh root@localhost

3.进入 .ssh目录后执行

ssh-keygen -t rsa 

一路回车就行 

4.做ssh免密认证 执行以下命令即可

cat id_rsa.pub >> authorized_keys

5.修改文件权限

chmod 644 authorized_keys

6.检测是否可以免密登录

ssh root@localhost

三、配置java环境

通过xftp或winSCP等工具 将jdk文件上传至CentOS7 的 /usr/java 文件夹中

进入文件夹并进行解压缩

  1. cd /usr/local/java
  2. tar -zxvf jdk-8u191-linux-x64.tar.gz

设置环境变量

  1. vim ~/.bashrc
  2. #在最下面添加:
  3. export JAVA_HOME=/usr/java/jdk1.8.0_191
  4. export PATH=$JAVA_HOME/bin:$PATH
  5. #使用以下命令使配置生效
  6. source ~/.bashrc

四、配置hadoop

1、通过winscp或xftp上传hadoop文件至CentOS7 的 /usr/java 文件夹中

  1.  cd /usr/java
  2.  tar -zxvf hadoop-3.1.3.tar.gz

2、设置环境变量

vim ~/.bashrc

在最下方添加:

  1. export HADOOP_HOME=/usr/java/hadoop-3.1.3
  2. export HADOOP_INSTALL=$HADOOP_HOME
  3. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  4. export HADOOP_COMMON_HOME=$HADOOP_HOME
  5. export HADOOP_HDFS_HOME=$HADOOP_HOME
  6. export YARN_HOME=$HADOOP_HOME
  7. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  8. export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  9. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

 使用以下命令使配置生效: 

source ~/.bashrc

3.修改hadoop-3.1.3/etc/hadoop文件夹下的core-site.xml配置文件

在<configuration>标签中添加:

  1. <property>
  2. <!-- 指定hadoop运行时产生文件的存储路径-->
  3. <name>hadoop.tmp.dir</name>
  4. <value>/usr/java/hadoop-3.1.3/tmp</value>
  5. <description>A base for other temporary directories.</description>
  6. </property>
  7. <property>
  8. <!--hdfs namenode的通信地址-->
  9. <name>fs.defaultFS</name>
  10. <value>hdfs://127.0.0.1:9000</value>
  11. </property>
  12. <property>
  13. <name>hadoop.native.lib</name>
  14. <value>false</value>
  15. </property>

4、修改hadoop-3.1.3/etc/hadoop文件夹下的hdfs-site.xml配置文件

在<configuration>标签中添加:

  1. <property>
  2. <!--指定HDFS储存数据的副本数目,默认情况下为3份-->
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <!--name node 存放 name table 的目录-->
  8. <name>dfs.namenode.name.dir</name>
  9. <value>file:/usr/java/hadoop-3.1.3/tmp/dfs/name</value>
  10. </property>
  11. <property>
  12. <!--data node 存放数据 block 的目录-->
  13. <name>dfs.datanode.data.dir</name>
  14. <value>file:/usr/java/hadoop-3.1.3/tmp/dfs/data</value>
  15. </property>
  16. <property>
  17. <!--设置监控页面的端口及地址-->
  18. <name>dfs.http.address</name>
  19. <value>0.0.0.0:9870</value>
  20. </property>

5、修改hadoop-3.1.3/etc/hadoop文件夹下的mapred-site.xml配置文件

在<configuration>标签中添加:

  1. <property>
  2. <!-- 指定mapreduce 编程模型运行在yarn上 -->
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>

6、修改hadoop-3.1.3/etc/hadoop文件夹下的yarn-site.xml配置文件

在<configuration>标签中添加:

  1. <!-- Site specific YARN configuration properties -->
  2. <property>
  3. <name>yarn.resourcemanager.hostname</name>
  4. <value>localhost</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.webapp.address</name>
  8. <value>${yarn.resourcemanager.hostname}:8088</value>
  9. </property>
  10. <property>
  11. <name>yarn.nodemanager.vmem-check-enabled</name>
  12. <value>false</value>
  13. </property>
  14. <property>
  15. <name>yarn.nodemanager.aux-services</name>
  16. <value>mapreduce_shuffle</value>
  17. </property>
  18. <property>
  19. <name>yarn.application.classpath</name>
  20. <value>
  21. ${HADOOP_HOME}/etc/hadoop/conf,
  22. ${HADOOP_HOME}/share/hadoop/common/lib/*,
  23. ${HADOOP_HOME}/share/hadoop/common/*,
  24. ${HADOOP_HOME}/share/hadoop/hdfs,
  25. ${HADOOP_HOME}/share/hadoop/hdfs/lib/*,
  26. ${HADOOP_HOME}/share/hadoop/hdfs/*,
  27. ${HADOOP_HOME}/share/hadoop/mapreduce/*,
  28. ${HADOOP_HOME}/hadoop/yarn,
  29. ${HADOOP_HOME}/share/hadoop/yarn/lib/*,
  30. ${HADOOP_HOME}/share/hadoop/yarn/*
  31. </value>
  32. </property>

7、用户定义

  在/usr/java/hadoop-3.1.3/sbin 下的 start-dfs.sh 和 stop-dfs.sh中添加:

  1. HDFS_DATANODE_USER=root
  2. HDFS_DATANODE_SECURE_USER=hdfs
  3. HDFS_NAMENODE_USER=root
  4. HDFS_SECONDARYNAMENODE_USER=root

 在/usr/java/hadoop-3.1.3/sbin 下的 start-yarn.sh 和 stop-yarn.sh中添加:

  1. YARN_RESOURCEMANAGER_USER=root
  2. HADOOP_SECURE_DN_USER=yarn
  3. YARN_NODEMANAGER_USER=root

9、格式化namenode,只格式化一次即可

hadoop namenode -format

10、启动hadoop

在sbin目录下输入:

start-all.sh

查看进程:

jps

若显示五个进程 : namenode、secondarynamenode、datanode、resourcemanager、nodemanager 则启动成功

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/843293
推荐阅读
相关标签
  

闽ICP备14008679号