当前位置:   article > 正文

centos7hadoop安装配置_centos7安装hadoop

centos7安装hadoop

一、前置

1.新建虚拟机,先关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
  • 1
  • 2

2.配置虚拟机网络

cd到该目录

cd /etc/sysconfig/network-scripts
  • 1

vi编辑配置文件(可以在vm中的编辑中的虚拟网络编辑器查看DHCP和NAT设置)

vi ifcfg-ens33
  • 1

在这里插入图片描述
修改完后重启网络,ping百度,能ping通就行

systemctl restart network
ping www.baidu.com
  • 1
  • 2

在这里插入图片描述

3.安装vim工具

yum -y install vim
  • 1

4.设置免密登陆

生成秘钥(注意是大写的P),运行后再次回车,生成秘钥

cd
ssh-keygen -t rsa -P ""
  • 1
  • 2

在这里插入图片描述

ll -a查看

ll-a
  • 1

在这里插入图片描述

查看秘钥

cd .ssh/
ls
  • 1
  • 2
cat ./id_rsa.pub >> authorized_keys
  • 1

开启远程免密登录配置

ssh-copy-id -i ./id_rsa.pub -p22 root@192.168.153.148
  • 1
ssh -p22 root@192.168.153.148
  • 1

免密登陆成功

5.安装同步时间工具

yum -y install ntpdate
  • 1

同步时间

ntpdate time.windows.com
  • 1

定时更新时间(定时任务)

crontab -e
* */5 * * *  usr/sbin/ntpdate -u time.windows.com
  • 1
  • 2

定时任务 启动/停止/重启/状态
service crond start/stop/restart/status

6.修改本计算机名字

vim /etc/hostname
或者
hostnamectl set-name xwt148
  • 1
  • 2
  • 3

通过vim /etc/hosts配置其他计算机的ip以及主机名的映射,可以直接ping设置好的主机名

二、安装配置JDK和Hadoop

1.通过xftp或者类似软件在opt目录新建soft和install目录,将准备好的hadoop压缩包和jdk传到install目录

解压缩,将hadoop和jdk解压到soft目录,如果觉得解压完的文件名太长可以用mv修改

tar -zxvf ./jdk-8u321-linux-x64.tar.gz -C ../soft/
tar -zxvf ./hadoop-3.1.3.tar.gz -C ../soft/
  • 1
  • 2

2.配置JDK环境变量

vim /etc/profile
  • 1

在74行加入

# JAVA_HOME
export JAVA_HOME=/opt/soft/jdk180
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAV_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
  • 1
  • 2
  • 3
  • 4

检测是否配置成功

java -version
  • 1

能出来就说明成功
在这里插入图片描述

3.修改解压郭的hadoop文件目录以及子目录文件的所有者为root

chown -R root:root /opt/soft/hadoop313/
  • 1

4.修改Hadoop配置文件

在该目录下进行

cd /opt/soft/hadoop313/etc/hadoop
  • 1

在这里插入图片描述

配置core-site.xml

vim ./core-site.xml
  • 1
<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://gree143:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/soft/hadoop313/data</value>
    <description>namenode上本地的hadoop临时文件夹</description>
  </property>
  <property>
    <name>hadoop.http.staticuser.user</name>
    <value>root</value>
  </property>
  <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
    <description>读写队列缓存:128K</description>
  </property>
  <property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
  </property>
  </configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

配置hadoop-env.sh

vim ./hadoop-env.sh
  • 1

将54行修改为,其中jdk180是你解压出来的目录,上面我将其修改为了jdk180

export JAVA_HOME=/opt/soft/jdk180
  • 1

配置hdfs-site.xml

vim ./hdfs-site.xml
  • 1
<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>hadoop中每一个block文件的备份数量</description>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/opt/soft/hadoop313/data/dfs/name</value>
    <description>namenode上存储hdfsq名字空间元数据的目录</description>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/opt/soft/hadoop313/data/dfs/data</value>
    <description>datanode上数据块的物理存储位置目录</description>
  </property>
  <property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
    <description>关闭权限验证</description>
  </property>
  </configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

配置mapred-site.xml

vim mapred-site.xml
  • 1
<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    <description>job执行框架: local, classic or yarn</description>
    <final>true</final>
  </property>
  <property>
    <name>mapreduce.application.classpath</name>
    <value>/opt/soft/hadoop313/etc/hadoop:/opt/soft/hadoop313/share/hadoop/common/lib/*:/opt/soft/hadoop313/share/hadoop/common/*:/opt/soft/hadoop313/share/hadoop/hdfs/*:/opt/soft/hadoop313/share/hadoop/hdfs/lib/*:/opt/soft/hadoop313/share/hadoop/mapreduce/*:/opt/soft/hadoop313/share/hadoop/mapreduce/lib/*:/opt/soft/hadoop313/share/hadoop/yarn/*:/opt/soft/hadoop313/share/hadoop/yarn/lib/*</value>
  </property>

  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>gree143:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>gree143:19888</value>
  </property>

  <property>
    <name>mapreduce.map.memory.mb</name>
    <value>1024</value>
  </property>
  <property>
    <name>mapreduce.reduce.memory.mb</name>
    <value>1024</value>
  </property>
  </configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

配置yarn-site.xml

vim ./yar-site.xml
  • 1
<configuration>

<!-- Site specific YARN configuration properties -->

  <property>
    <name>yarn.resourcemanager.connect.retry-interval.ms</name>
    <value>20000</value>
  </property>

  
  <property>
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
  </property>

  <property>
    <name>yarn.nodemanager.localizer.address</name>
    <value>gree143:8040</value>
  </property>

  <property>
    <name>yarn.nodemanager.address</name>
    <value>gree143:8050</value>
  </property>

  <property>
    <name>yarn.nodemanager.webapp.address</name>
    <value>gree143:8042</value>
  </property>


  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>

  <property>
    <name>yarn.nodemanager.local-dirs</name>
    <value>/opt/soft/hadoop313/yarndata/yarn</value>
  </property>

  <property>
    <name>yarn.nodemanager.log-dirs</name>
    <value>/opt/soft/hadoop313/yarndata/log</value>
  </property>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46

配置Hadoop环境变量

在jdk环境变量后加上

# HADOOP_HOME
export HADOOP_HOME=/opt/soft/hadoop313
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HDFS_JOURNALNODE_USER=root
export HDFS_ZKFC_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

5.刷新配置文件

source /etc/profile
  • 1

查看是否刷新成功,能出现即成功

echo $HADOOP_HOME
  • 1

在这里插入图片描述

6.初始化并测试运行

初始化

hdfs namenode-format
  • 1

启动服务

start-all.sh
  • 1

在这里插入图片描述

jps查看服务

在这里插入图片描述

在浏览器输入
http://IP地址:9870访问网站

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/1002458
推荐阅读
相关标签
  

闽ICP备14008679号