赞
踩
tar -zxvf /opt/software/jdk-8u212-linux-x64.tar.gz -C /opt/module
vim /etc/profile
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
三台节点分别命名(比赛时节点已完成命名):
hostnamectl set-hostname mater
hostnamectl set-hostname slave1
hostnamectl set-hostname slave2
更改hosts文件:
masterip master
slave1ip slave1
slave2ip slave2
配置免密登录(三台节点):
cd .ssh/
ssh-keygen
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
scp 命令并使用绝对路径从 master 复制 JDK 解压后的安
装文件和环境变量文件到 slave1、slave2 节点
scp -r /opt/module/jdk1.8.0_212/ root@slave1:/opt/module/
scp -r /opt/module/jdk1.8.0_212/ root@slave2:/opt/module/
scp -r /etc/profile root@slave1:/etc
scp -r /etc/profile root@slave1:/etc
将hadoop解压到/opt/module
tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module
并将解压包分发至slave1、slave2中(为提高效率可以先不分发,配置完毕后再分发)
scp -r /opt/module/hadoop-3.1.3/ root@bigdata2:/opt/module/
scp -r /opt/module/hadoop-3.1.3/ root@bigdata3:/opt/module/
配置hadoop环境变量(配置完成source /etc/profile):
export HADOOP_HOME=/opt/ module/ hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
进入需要修改hadoop配置文件的目录:
cd $HADOOP_HOME/etc/hadoop
vim hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_212
vim core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。