当前位置:   article > 正文

Hadoop环境搭建_配置hadoop要修改哪五个文件

配置hadoop要修改哪五个文件

目录

一、安装准备

二、服务器环境设置

三、Hadoop安装与环境配置

1.配置hadoop-env.sh

2.配置core-site.xml

3.配置hdfs-site.xml

4.配置yarn-site.xml

5.配置mapred-site.xml

6.配置slaves

7.配置Hadoop环境变量

8.新建Hadoop运行时产生文件的储存目录

9.给slave0和slave1复制Hadoop

10.格式化文件系统

11.启动Hadoop

12.关闭Hadoop



一、安装准备

1.安装VM

2.安装CentOS7

3.Xshell5的安装与使用

4.安装JDK

5.下载Hadoop安装包(本次使用hadoop-2.7.5)

https://archive.apache.org/dist/hadoop/common/

二、服务器环境设置

三、Hadoop安装与环境配置

先用下面的命令给opt文件夹中新建一个hapoop文件夹

mkdir /opt/hadoop

然后把hadoop-2.7.5.tar.gz上传到/opt/hadoop文件夹中

使用下面命令进入到hadoop文件夹

cd /opt/hadoop

使用下面命令把hadoop-2.7.5进行解压

tar -zxvf hadoop-2.7.5.tar.gz

使用下面命令把hadoop-2.7.5文件夹重命名成hadoop

mv hadoop-2.7.5 hadoop

1.配置hadoop-env.sh

然后输入下面命令进入该文件所在的文件夹

cd /opt/hadoop/hadoop/etc/hadoop

输入下面命令打开文件

vi hadoop-env.sh

修改JAVA_HOME地址为服务器jdk安装路径

export JAVA_HOME=/usr/local/java/jdk1.8.0_162/

2.配置core-site.xml

vi core-site.xml

接着把下面命令写入<configuration></configuration>中,注释不用写

  1. <!-- 指定Hadoop所使用的文件系统schema(URL),HDFS的老大(NameNode)的地址 -->
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://master:9000</value>
  5. </property>
  6. <!-- 指定Hadoop运行时产生文件的储存目录,默认是/tmp/hadoop-${user.name} -->
  7. <property>
  8. <name>hadoop.tmp.dir</name>
  9. <value>/opt/hadoop/hadoopdata</value>
  10. </property>

3.配置hdfs-site.xml

vi hdfs-site.xml

接着把下面命令写入<configuration></configuration>中,注释不用写

  1. <!-- 指定HDFS副本的数量 -->
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>

4.配置yarn-site.xml

vi yarn-site.xml

接着把下面命令写入<configuration></configuration>中,里面自带的注释不用删除

  1. <property>
  2. <name>yarn.nodemanager.aux-services</name>
  3. <value>mapreduce_shuffle</value>
  4. </property>
  5. <property>
  6. <name>yarn.resourcemanager.address</name>
  7. <value>master:18040</value>
  8. </property>
  9. <property>
  10. <name>yarn.resourcemanager.scheduler.address</name>
  11. <value>master:18030</value>
  12. </property>
  13. <property>
  14. <name>yarn.resourcemanager.resource-tracker.address</name>
  15. <value>master:18025</value>
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.admin.address</name>
  19. <value>master:18141</value>
  20. </property>
  21. <property>
  22. <name>yarn.resourcemanager.webapp.address</name>
  23. <value>master:18088</value>
  24. </property>

5.配置mapred-site.xml

还是在/opt/hadoop/hadoop/etc/hadoop目录下(也就是上个文件所在的目录),有一个叫 mapred-site.xml.template的文件,把它复制到/opt/hadoop/hadoop/etc/hadoop目录下(也就是mapred-queues.xml.template文件所在的目录)重命名为mapred-site.xml,命令如下

mv mapred-site.xml.template mapred-site.xml

然后用下面命令打开该文件

vi mapred-site.xml

接着把下面命令写入<configuration></configuration>中,注释不用写

  1. <!-- 指定mr运行时框架,这里指定在yarn上,默认是local -->
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>

6.配置slaves

vi slaves

先把localhost这行删除,然后把下面代码写进去

  1. master
  2. slave0
  3. slave1

7.配置Hadoop环境变量

输入下面命令开始配置

vi /root/.bash_profile

把下面命令添加至最后

  1. export HADOOP_HOME=/opt/hadoop/hadoop
  2. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

然后保存退出输入下面内容使环境变量生效

source /root/.bash_profile

8.新建Hadoop运行时产生文件的储存目录

mkdir /opt/hadoop/hadoopdata

9.给slave0和slave1复制Hadoop

用下面命令就可以把master的Hadoop复制到slave0上

scp -r /opt/hadoop root@slave0:/opt

用下面命令把master的Hadoop复制到slave1上

scp -r /opt/hadoop root@slave1:/opt

接着用下面命令把master的环境变量复制到slave0上

scp -r /root/.bash_profile root@slave0:/root

接着用下面命令把master的环境变量复制到slave1上

scp -r /root/.bash_profile root@slave1:/root

在slave0和slave1服务器上执行

source /root/.bash_profile

10.格式化文件系统

在master中输入下面命令格式化文件系统,其余俩台服务器不用,注意该命令只能使用一次

hadoop namenode -format

11.启动Hadoop

在master服务器上,先用下面命令进入Hadoop的sbin目录

cd /opt/hadoop/hadoop/sbin

然后输入下面命令启动

start-all.sh

 在三台服务器分别输入jps可以判断是否启动成功,出现下面内容说明成功

12.关闭Hadoop

只需要在master服务器输入下面命令即可

stop-all.sh

13.访问UI页面

http://master:50070

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/664650
推荐阅读
相关标签
  

闽ICP备14008679号