赞
踩
目录
1.安装VM
4.安装JDK
5.下载Hadoop安装包(本次使用hadoop-2.7.5)
https://archive.apache.org/dist/hadoop/common/
先用下面的命令给opt文件夹中新建一个hapoop文件夹
mkdir /opt/hadoop
然后把hadoop-2.7.5.tar.gz上传到/opt/hadoop文件夹中
使用下面命令进入到hadoop文件夹
cd /opt/hadoop
使用下面命令把hadoop-2.7.5进行解压
tar -zxvf hadoop-2.7.5.tar.gz
使用下面命令把hadoop-2.7.5文件夹重命名成hadoop
mv hadoop-2.7.5 hadoop
然后输入下面命令进入该文件所在的文件夹
cd /opt/hadoop/hadoop/etc/hadoop
输入下面命令打开文件
vi hadoop-env.sh
修改JAVA_HOME地址为服务器jdk安装路径
export JAVA_HOME=/usr/local/java/jdk1.8.0_162/
vi core-site.xml
接着把下面命令写入<configuration></configuration>中,注释不用写
- <!-- 指定Hadoop所使用的文件系统schema(URL),HDFS的老大(NameNode)的地址 -->
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://master:9000</value>
- </property>
- <!-- 指定Hadoop运行时产生文件的储存目录,默认是/tmp/hadoop-${user.name} -->
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/opt/hadoop/hadoopdata</value>
- </property>
vi hdfs-site.xml
接着把下面命令写入<configuration></configuration>中,注释不用写
- <!-- 指定HDFS副本的数量 -->
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
vi yarn-site.xml
接着把下面命令写入<configuration></configuration>中,里面自带的注释不用删除
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:18040</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:18030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:18025</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:18141</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:18088</value> </property>
还是在/opt/hadoop/hadoop/etc/hadoop目录下(也就是上个文件所在的目录),有一个叫 mapred-site.xml.template的文件,把它复制到/opt/hadoop/hadoop/etc/hadoop目录下(也就是mapred-queues.xml.template文件所在的目录)重命名为mapred-site.xml,命令如下
mv mapred-site.xml.template mapred-site.xml
然后用下面命令打开该文件
vi mapred-site.xml
接着把下面命令写入<configuration></configuration>中,注释不用写
- <!-- 指定mr运行时框架,这里指定在yarn上,默认是local -->
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
vi slaves
先把localhost这行删除,然后把下面代码写进去
- master
- slave0
- slave1
输入下面命令开始配置
vi /root/.bash_profile
把下面命令添加至最后
- export HADOOP_HOME=/opt/hadoop/hadoop
- export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
然后保存退出输入下面内容使环境变量生效
source /root/.bash_profile
mkdir /opt/hadoop/hadoopdata
用下面命令就可以把master的Hadoop复制到slave0上
scp -r /opt/hadoop root@slave0:/opt
用下面命令把master的Hadoop复制到slave1上
scp -r /opt/hadoop root@slave1:/opt
接着用下面命令把master的环境变量复制到slave0上
scp -r /root/.bash_profile root@slave0:/root
接着用下面命令把master的环境变量复制到slave1上
scp -r /root/.bash_profile root@slave1:/root
在slave0和slave1服务器上执行
source /root/.bash_profile
在master中输入下面命令格式化文件系统,其余俩台服务器不用,注意该命令只能使用一次
hadoop namenode -format
在master服务器上,先用下面命令进入Hadoop的sbin目录
cd /opt/hadoop/hadoop/sbin
然后输入下面命令启动
start-all.sh
在三台服务器分别输入jps可以判断是否启动成功,出现下面内容说明成功
只需要在master服务器输入下面命令即可
stop-all.sh
http://master:50070
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。