赞
踩
关闭防火墙的命令
systemctl stop firewalld.service
关闭防火墙的开机自启
systemctl disable firewalld.service
mkdir -p /opt/apps /opt/
输入命令解压java和Hadoop
tar -zxvf 地址/jdk-8u221-linux-x64.tar.gz -C /opt/apps/
tar -zxvf 地址/hadoop-2.7.7.tar.gz -C /opt/apps/
成功后如下图
vim /etc/hosts
在末尾添加
主机IP 主机名
vim /etc/sudoers
在下插入
hadoop1 ALL=(ALL) NOPASSWD:ALL
查询已经安装的java
rpm -qa | grep java
命令删除
rpm -e ** --nodeps
进入profile
sudo vim /etc/profile
在末尾添加
export JAVA_HOME=/opt/apps/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin
更新profile
source /etc/profile
查看配置是否成功
java -version
如图成功
进入profile
sudo vim /etc/profile
末尾添加
export HADOOP_HOME=/opt/apps/hadoop-2.7.7
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
刷新配置
source /etc/profile
验证hadoop是否配置成功
hadoop version
hostnamectl set-hostname xxx
重复修改剩下的主机
vi /etc/sysconfig/network-scripts/ifcfg-ens33
更新网络
service network restart
重复修改剩下的主机
生成公钥
ssh-keygen -t rsa
全部回车
拷贝公钥
ssh-copy-id 要拷贝到的机器ip
完成主节点通从节点,从节点通主节点
测试是否成功
进入hadoop配置文件处
cd /opt/apps/hadoop-2.7.7/etc/hadoop
vim hadoop-env.sh
export JAVA_HOME=/opt/apps/jdk1.8.0_221
vim core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/home/apps/hadoop-2.7.7/data/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://tang1:9000</value>
</property>
tang1 为主节点主机名
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/data</value>
</property>
cp -i mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>tang1:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>tang1:19888</value>
</property>
tang1为主节点主机名
vi slaves
hadoop1 #主节点
hadoop2 #从节点
hadoop3 #从节点
scp -r 地址/hadoop** **:/地址
hdfs namenode -format
启动Hadoop所有进程。
start-all.sh
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。