当前位置:   article > 正文

Hadoop3.3伪分布式安装部署_hadoop 3. 3伪分布式环境安装

hadoop 3. 3伪分布式环境安装

目录

引言

实验目的及准备

实验步骤


引言

Hadoop生态的搭建有本地模式、伪分布模式、集群模式(3台机器)三种安装模式,本篇文章将详细介绍Hadoop3.3的伪分布安装模式。

实验目的及准备

一、完成Hadoop3.3伪分布安装

二、在Linux中配置jdk1.8环境变量

三、配置主机的免密钥登录

准备:MobaXterm、Centos7系统、jdk-8u112-linux-x64.tar.gz、Hadoop3.3

实验步骤

一、启动虚拟机master节点,连接至mobaXterm的远程终端:

二、上传Hadoop3.3.2以及jdk安装包至主节点的/home路径下(该安装包在CSDN中都可以搜寻到,作者无法重复上传):

三、解压缩Hadoop以及jdk的安装包至/opt目录下:

  1. cd /home
  2. tar -zxvf jdk-8u112-linux-x64.tar.gz -C /opt/
  3. tar -zxvf hadoop-3.3.2.tar -C /opt/

四、解压完成后,配置JDK环境变量并进行测试:

  1. vi /etc/profile
  2. #添加以下内容后保存退出:
  3. export JAVA_HOME=/opt/jdk1.8.0_112 export JRE_HOME=/opt/jdk1.8.0_112/jre
  4. export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
  5. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  6. #生效:
  7. source /etc/profile

输入以下命令进行jdk安装成功的测试,出现1.8.0的jdk版本号即为安装成功:

java -version

五、配置master节点并完成伪分布安装(共配置六个文件):

1.配置Hadoop-env.sh

  1. cd /opt/hadoop-3.3.2/etc/hadoop
  2. vi hadoop-env.sh

修改 JAVA_HOME 后保存退出:

2.配置core-site.xml

配置该文件,指定HDFS的namenode地址,value值是主机名加端口号,该实验中主机使用master节点的ip地址,请注意修改:

  1. cd /opt/hadoop-3.3.2/etc/hadoop/
  2. vi core-site.xml
  3. <property>
  4. <name>fs.default.name</name>
  5. <value>hdfs://10.244.1.3:9000</value>
  6. </property>
  7. <property>
  8. <name>fs.defaultFS</name>
  9. <value>hdfs://10.244.1.3:9000</value>
  10. </property>
  11. <property>
  12. <name>hadoop.tmp.dir</name>
  13. <value>/home/hadooptmp</value>
  14. </property>

截图如下:

3.配置hdfs-site.xml:

配置该文件,指定HDFS保存数据的副本数量,伪分布模式下只有一个节点,所以此处为:1

  1. cd /opt/hadoop-3.3.2/etc/hadoop/
  2. vi hdfs-site.xml
  3. <property>
  4. <name>dfs.replication</name>
  5. <value>1</value>
  6. </property>
  7. <property>
  8. <name>dfs.name.dir</name>
  9. <value>/home/hadoopname</value>
  10. </property>
  11. <property>
  12. <name>dfs.data.dir</name>
  13. <value>/home/hadoopdata</value>
  14. </property>

截图如下:

4.配置mapred-site.xml

  1. cd /opt/hadoop-3.3.2/etc/hadoop/
  2. vi mapred-site.xml
  3. <property>
  4. <name>mapreduce.framework.name</name>
  5. <value>yarn</value>
  6. </property>

截图如下:

5.配置yarn-site.xml文件:

添加两个属性,第一个告诉nodemanager获取数据的方式为:shuffle;第二个告诉resourcemanager安装的主机(hostname)。

  1. cd /opt/hadoop-3.3.2/etc/hadoop/
  2. vi yarn-site.xml
  3. <property>
  4. <name>yarn.nodemanager.aux-services</name>
  5. <value>mapreduce_shuffle</value>
  6. </property>
  7. <property>
  8. <name>yarn.resourcemanager.hostname</name>
  9. <value>master</value>
  10. </property>

截图如下:

6.配置etc/profile文件:

  1. cd /opt/hadoop-3.3.2/etc/hadoop/
  2. vi /etc/profile
  3. export HADOOP_HOME=/opt/hadoop-3.3.2
  4. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
  5. source /etc/profile

截图如下:

六、配置主机的免密钥登录

配置本地免密钥登录:

cd /root

#如果本机没有登录过其他机器时,本地是没有/root/.ssh 文件夹的,只需要:ssh master 登录一次,就会自动创建了。

  1. cd .ssh
  2. ssh-keygen -t rsa
  3. cat id_rsa.pub >> authorized_keys
  4. #测试免输入密码:
  5. ssh master

截图如下:

七、初始化Hadoop

初始化之前,cd /opt/hadoop-3.3.2/sbin/,进入 sbin 目录,在 start-dfs.sh,stop-dfs.sh, start-yarn.sh,stop-yarn.sh 四个文件顶部添加参数,之后就可以使用 root 账号登陆 hdfs 和 yarn 了。

  1. vim start-dfs.sh 和 vim stop-dfs.sh
  2. #添加以下内容
  3. HDFS_DATANODE_USER=root
  4. HADOOP_SECURE_DN_USER=hdfs
  5. HDFS_NAMENODE_USER=root
  6. HDFS_SECONDARYNAMENODE_USER=root

在start-dfs.sh以及stop-dfs.sh两个文件顶部添加如下参数:

同理,在start-yarn.sh以及stop-yarn.sh两个文件顶部添加如下参数:

  1. vim start-yarn.sh 和 vim stop-yarn.sh
  2. #添加以下内容
  3. YARN_RESOURCEMANAGER_USER=root
  4. HADOOP_SECURE_DN_USER=yarn
  5. YARN_NODEMANAGER_USER=root

截图如下:

接下来开始初始化:

先格式化:在/opt/hadoop-3.3.2/etc/hadoop/ 路径下输入命令

cd /opt/hadoop-3.3.2/etc/hadoop/ hadoop namenode -format

输入后截图如下:

八、启动Hadoop并进行测试

  1. start-dfs.sh
  2. start-yarn.sh

启动成功截图如下:

测试相关HDFS命令:

列出HDFS目录下所有的文件

hadoop fs -ls /

在HDFS目录上新建一个test文件夹:

hadoop fs -mkdir /test

再次列出HDFS目录下所有文件

hadoop fs -ls /

截图如下:

登录namenode的HTTP前端web网页UI(port:9870),查看该网页前,请关闭防火墙(systemctl stop firewalld)

以上就是Hadoop3.3的伪分布安装搭建以及测试流程。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/911128
推荐阅读
相关标签
  

闽ICP备14008679号