当前位置:   article > 正文

Hadoop 3.2.4 集群搭建详细图文教程_hadoop3.2.4版集群搭建

hadoop3.2.4版集群搭建

目录

一、集群简介

二、Hadoop 集群部署方式 

三、集群安装

3.1 集群角色规划 

3.2 服务器基础环境准备 

3.2.1 环境初始化 

3.2.2 ssh 免密登录(在 hadoop01 上执行)

3.2.3 各个节点上安装 JDK 1.8 环境

3.3 安装 Hadoop

3.4 Hadoop 安装包目录结构

​3.5 编辑 Hadoop 配置文件 

3.5.1 hadoop-env.sh

3.5.2 core-site.xml

3.5.3 hdfs-site.xml 

3.5.4 mapred-site.xml 

3.5.5 yarn-site.xml

3.5.6  workers

3.6 分发同步安装包 

3.7 配置 Hadoop 环境变量

3.8 NameNode format(格式化操作)

3.9 Hadoop 集群启动关闭

3.9.1 手动逐个进程启停

3.9.2 shell 脚本一键启停 

3.9.3 Hadoop 集群启动日志

3.10 Hadoop Web UI 页面

3.10.1 配置 windows 域名映射

3.10.2 访问 HDFS 集群 UI 页面

3.10.3 访问 YARN 集群 UI 页面 

3.10.4 访问 JobHistory 服务 UI 页面

四、Hadoop 初体验

4.1 HDFS 初体验 

4.1.1 shell 命令操作 

4.1.2 Web UI 页面操作

​4.2 MapReduce+YARN 初体验 

4.2.1 执行 Hadoop 官方自带的 MapReduce 案例 


一、集群简介

        Hadoop 集群包括两个集群:HDFS 集群、YARN 集群。两个集群逻辑上分离、通常物理上在一起;两个集群都是标准的主从架构集群。

  • 逻辑上分离

两个集群互相之间没有依赖、互不影响

  • 物理上在一起

某些角色进程往往部署在同一台物理服务器上

  • MapReduce 集群呢?

MapReduce 是计算框架、代码层面的组件,没有集群之说

二、Hadoop 集群部署方式 

三、集群安装

3.1 集群角色规划 

        集群模式主要用于生产环境部署,需要多台主机,并且这些主机之间可以相互访问。本次是在 Centos 7.6 搭建集群模式,以三台主机为例,以下是集群规划:

各节点 IP各节点名称运行角色各节点资源规划
192.168.170.136hadoop01

NameNode、DataNode、ResourceManager、NodeManager

2 cpu / 4 G
192.168.170.137hadoop02

SecondaryNamenode、DataNode 、NodeManager

2 cpu / 4 G
192.168.170.138hadoop03DataNode 、NodeManager2 cpu / 4 G

3.2 服务器基础环境准备 

3.2.1 环境初始化 

给三台机器进行环境初始化,特别是需要做好 Hosts 映射:CentOS 7 初始化系统_centos7初始化_Stars.Sky的博客-CSDN博客

3.2.2 ssh 免密登录(在 hadoop01 上执行)

  1. # 4 个 回车,生成公钥、私钥
  2. [root@hadoop01 ~]# ssh-keygen
  3. # 推送到各个节点
  4. [root@hadoop01 ~]# ssh-copy-id root@hadoop01
  5. [root@hadoop01 ~]# ssh-copy-id root@hadoop02
  6. [root@hadoop01 ~]# ssh-copy-id root@hadoop03

3.2.3 各个节点上安装 JDK 1.8 环境

Linux 部署 JDK+MySQL+Tomcat 详细过程_一键部署jdk mysql tomcat_Stars.Sky的博客-CSDN博客

3.3 安装 Hadoop

hadoop 3.2.4 官方下载地址:Apache Downloads

  1. # 创建统一工作目录(3 台机器)
  2. [root@hadoop01 ~]# mkdir -p /bigdata/hadoop/server # 软件安装路径
  3. [root@hadoop01 ~]# mkdir -p /bigdata/hadoop/data # 数据存储路径
  4. [root@hadoop01 ~]# mkdir -p /bigdata/softwares # 安装包存放路径
  5. # 上传、解压安装包(hadoop01
  6. [root@hadoop01 ~]# cd /bigdata/softwares/
  7. [root@hadoop01 /bigdata/softwares]# ls
  8. hadoop-3.2.4.tar.gz
  9. [root@hadoop01 /bigdata/softwares]# tar -zxvf hadoop-3.2.4.tar.gz -C /bigdata/hadoop/server/

3.4 Hadoop 安装包目录结构

  1. [root@hadoop01 /bigdata/softwares]# cd /bigdata/hadoop/server/
  2. [root@hadoop01 /bigdata/hadoop/server]# ls
  3. hadoop-3.2.4
  4. [root@hadoop01 /bigdata/hadoop/server]# cd hadoop-3.2.4/
  5. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4]# ls
  6. bin etc include lib libexec LICENSE.txt NOTICE.txt README.txt sbin share

3.5 编辑 Hadoop 配置文件 

3.5.1 hadoop-env.sh

        文件中设置的是 Hadoop 运行时需要的环境变量。JAVA_HOME 是必须设置的,即使我们当前的系统中设置了 JAVA_HOME,它也是不认识的,因为 Hadoop 即使是在本机上执行,它也是把当前的执行环境当成远程服务器。 

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# pwd
  2. /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop
  3. # 在文件最后面直接添加下面内容
  4. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim hadoop-env.sh
  5. # 配置 JAVA_HOME
  6. export JAVA_HOME=/usr/java/jdk1.8.0_381
  7. # 设置用户以执行对应角色 shell 命令
  8. export HDFS_NAMENODE_USER=root
  9. export HDFS_DATANODE_USER=root
  10. export HDFS_SECONDARYNAMENODE_USER=root
  11. export YARN_RESOURCEMANAGER_USER=root
  12. export YARN_NODEMANAGER_USER=root

3.5.2 core-site.xml

        hadoop 的核心配置文件,有默认的配置项 core-default.xml。core-default.xml 与 core-site.xml 的功能是一样的,如果在 core-site.xml 里没有配置的属性,则会自动会获取 core-default.xml 里的相同属性的值。

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim core-site.xml
  2. <configuration>
  3. <!-- 默认文件系统的名称。通过 URI 中 schema 区分不同文件系统。-->
  4. <!-- file:///本地文件系统 hdfs:// hadoop分布式文件系统 gfs://。-->
  5. <!-- hdfs 文件系统访问地址:http://nn_host:8020。-->
  6. <property>
  7. <name>fs.defaultFS</name>
  8. <value>hdfs://hadoop01:8020</value>
  9. </property>
  10. <!-- hadoop 本地数据存储目录 format 时自动生成 -->
  11. <property>
  12. <name>hadoop.tmp.dir</name>
  13. <value>/bigdata/hadoop/data/tmp</value>
  14. </property>
  15. <!-- 在 Web UI 访问 HDFS 使用的用户名。-->
  16. <property>
  17. <name>hadoop.http.staticuser.user</name>
  18. <value>root</value>
  19. </property>
  20. </configuration>

3.5.3 hdfs-site.xml 

        HDFS 的核心配置文件,主要配置 HDFS 相关参数,有默认的配置项 hdfs-default.xml。hdfs-default.xml 与 hdfs-site.xml 的功能是一样的,如果在 hdfs-site.xml 里没有配置的属性,则会自动会获取 hdfs-default.xml 里的相同属性的值。

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim hdfs-site.xml
  2. <configuration>
  3. <!-- 设定 SNN 运行主机和端口 -->
  4. <property>
  5. <name>dfs.namenode.secondary.http-address</name>
  6. <value>hadoop02:9868</value>
  7. </property>
  8. </configuration>

3.5.4 mapred-site.xml 

        MapReduce 的核心配置文件,Hadoop 默认只有个模板文件 mapred-site.xml.template,需要使用该文件复制出来一份 mapred-site.xml 文件。

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim mapred-site.xml
  2. <configuration>
  3. <!-- mr 程序默认运行方式。yarn 集群模式 local 本地模式-->
  4. <property>
  5. <name>mapreduce.framework.name</name>
  6. <value>yarn</value>
  7. </property>
  8. <!-- jobhistory 服务配置 注意 19888 是 web ui 访问端口 -->
  9. <property>
  10. <name>mapreduce.jobhistory.address</name>
  11. <value>hadoop01:10020</value>
  12. </property>
  13. <property>
  14. <name>mapreduce.jobhistory.webapp.address</name>
  15. <value>hadoop01:19888</value>
  16. </property>
  17. <!-- MR App Master 环境变量。-->
  18. <property>
  19. <name>yarn.app.mapreduce.am.env</name>
  20. <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  21. </property>
  22. <!-- MR MapTask 环境变量。-->
  23. <property>
  24. <name>mapreduce.map.env</name>
  25. <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  26. </property>
  27. <!-- MR ReduceTask 环境变量。-->
  28. <property>
  29. <name>mapreduce.reduce.env</name>
  30. <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  31. </property>
  32. </configuration>

3.5.5 yarn-site.xml

YARN 的核心配置文件,在该文件中的 <configuration> 标签中添加以下配置。

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim yarn-site.xml
  2. <!-- yarn 集群主角色 RM 运行机器。-->
  3. <property>
  4. <name>yarn.resourcemanager.hostname</name>
  5. <value>hadoop01</value>
  6. </property>
  7. <!-- NodeManager 上运行的附属服务。需配置成 mapreduce_shuffle,才可运行 MR 程序。-->
  8. <property>
  9. <name>yarn.nodemanager.aux-services</name>
  10. <value>mapreduce_shuffle</value>
  11. </property>
  12. <!-- 每个容器请求的最小内存资源(以MB为单位)。-->
  13. <property>
  14. <name>yarn.scheduler.minimum-allocation-mb</name>
  15. <value>512</value>
  16. </property>
  17. <!-- 每个容器请求的最大内存资源(以MB为单位)。-->
  18. <property>
  19. <name>yarn.scheduler.maximum-allocation-mb</name>
  20. <value>2048</value>
  21. </property>
  22. <!-- 容器虚拟内存与物理内存之间的比率。-->
  23. <property>
  24. <name>yarn.nodemanager.vmem-pmem-ratio</name>
  25. <value>4</value>
  26. </property>
  27. <!-- 开启 yarn 日志聚集功能,收集每个容器的日志集中存储在一个地方 -->
  28. <property>
  29. <name>yarn.log-aggregation-enable</name>
  30. <value>true</value>
  31. </property>
  32. <!-- 日志保留时间设置为一天 -->
  33. <property>
  34. <name>yarn.log-aggregation.retain-seconds</name>
  35. <value>86400</value>
  36. </property>
  37. <property>
  38. <name>yarn.log.server.url</name>
  39. <value>http://hadoop01:19888/jobhistory/logs</value>
  40. </property>

3.5.6  workers

workers 文件里面记录的是集群主机名。一般有以下两种作用:

  1. 配合一键启动脚本如 start-dfs.sh、stop-yarn.sh 用来进行集群启动。这时候 slaves 文件里面的主机标记的就是从节点角色所在的机器。
  2. 可以配合 hdfs-site.xml 里面 dfs.hosts 属性形成一种白名单机制。

        dfs.hosts 指定一个文件,其中包含允许连接到 NameNode 的主机列表。必须指定文件的完整路径名,那么所有在 workers 中的主机才可以加入的集群中。如果值为空,则允许所有主机。 

  1. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop]# vim workers
  2. hadoop01
  3. hadoop02
  4. hadoop03

3.6 分发同步安装包 

在 hadoop01 机器上将 Hadoop 安装包 scp 同步到其他机器:

  1. [root@hadoop01 /bigdata/hadoop]# cd /bigdata/hadoop/server/
  2. [root@hadoop01 /bigdata/hadoop/server]# scp -r hadoop-3.2.4 root@hadoop02:/bigdata/hadoop/server/
  3. [root@hadoop01 /bigdata/hadoop/server]# scp -r hadoop-3.2.4 root@hadoop03:/bigdata/hadoop/server/

3.7 配置 Hadoop 环境变量

在三台机器上配置 Hadoop 环境变量:

  1. [root@hadoop01 /bigdata/hadoop/server]# vim /etc/profile
  2. # hadoop
  3. export HADOOP_HOME=/bigdata/hadoop/server/hadoop-3.2.4/
  4. export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  5. # 重新加载环境变量
  6. [root@hadoop01 /bigdata/hadoop/server]# source /etc/profile
  7. # 验证环境变量是否生效
  8. [root@hadoop01 /bigdata/hadoop/server]# hadoop

3.8 NameNode format(格式化操作)

        首次启动 HDFS 时,必须对其进行格式化操作。format 本质是初始化工作,进行 HDFS 清理和准备工作。

  1. # 仅在 hadoop01 上执行
  2. [root@hadoop01 ~]# hdfs namenode -format
  3. [root@hadoop01 ~]# ll /bigdata/hadoop/data/tmp/dfs/name/current/
  4. 总用量 16
  5. -rw-r--r-- 1 root root 396 831 17:04 fsimage_0000000000000000000
  6. -rw-r--r-- 1 root root 62 831 17:04 fsimage_0000000000000000000.md5
  7. -rw-r--r-- 1 root root 2 831 17:04 seen_txid
  8. -rw-r--r-- 1 root root 218 831 17:04 VERSION
  • fsimage_0000000000000000000:这是文件系统镜像(File System Image),包含了HDFS的整个文件系统结构(如目录和文件元数据)的一个快照。
  • fsimage_0000000000000000000.md5:这是与fsimage文件对应的MD5校验和,用于验证文件完整性。
  • seen_txid:这个文件保存了NameNode最后一次启动后见到(即处理过)的最大事务ID。
  • VERSION:这个文件包含了与NameNode相关的各种版本和配置信息,比如Hadoop的版本号,布局版本等。

3.9 Hadoop 集群启动关闭

3.9.1 手动逐个进程启停

每台机器上每次手动启动关闭一个角色进程。

  • HDFS 集群
  1. hdfs --daemon start namenode|datanode|secondarynamenode
  2. hdfs --daemon stop  namenode|datanode|secondarynamenode
  • YARN 集群
  1. yarn --daemon start resourcemanager|nodemanager
  2. yarn --daemon stop  resourcemanager|nodemanager

3.9.2 shell 脚本一键启停 

        在 hadoop01 上,使用软件自带的 shell 脚本一键启动前提:配置好机器之间的 SSH 免密登录和 workers 文件。

  • HDFS 集群

  start-dfs.sh

  stop-dfs.sh

  • YARN 集群

  start-yarn.sh

  stop-yarn.sh

  • Hadoop 集群

  start-all.sh

  stop-all.sh

  1. [root@hadoop01 ~]# start-all.sh
  2. Starting namenodes on [hadoop01]
  3. 上一次登录:五 91 14:24:35 CST 2023pts/0
  4. Starting datanodes
  5. 上一次登录:五 91 14:25:14 CST 2023pts/0
  6. Starting secondary namenodes [hadoop02]
  7. 上一次登录:五 91 14:25:17 CST 2023pts/0
  8. Starting resourcemanager
  9. 上一次登录:五 91 14:25:23 CST 2023pts/0
  10. Starting nodemanagers
  11. 上一次登录:五 91 14:25:30 CST 2023pts/0

3.9.3 Hadoop 集群启动日志

  1. # 启动完毕之后可以使用 jps 命令查看进程是否启动成功
  2. [root@hadoop01 ~]# jps
  3. 22337 NodeManager
  4. 21798 DataNode
  5. 22203 ResourceManager
  6. 22669 Jps
  7. 21662 NameNode
  8. [root@hadoop02 ~]# jps
  9. 21114 NodeManager
  10. 21005 DataNode
  11. 21213 Jps
  12. [root@hadoop03 ~]# jps
  13. 21010 DataNode
  14. 21219 Jps
  15. 21119 NodeManager
  16. # Hadoop 启动日志
  17. [root@hadoop01 ~]# ll /bigdata/hadoop/server/hadoop-3.2.4/logs/
  18. 总用量 184
  19. -rw-r--r-- 1 root root 36069 831 17:54 hadoop-root-datanode-hadoop01.log
  20. -rw-r--r-- 1 root root 692 831 17:54 hadoop-root-datanode-hadoop01.out
  21. -rw-r--r-- 1 root root 43819 831 17:54 hadoop-root-namenode-hadoop01.log
  22. -rw-r--r-- 1 root root 692 831 17:54 hadoop-root-namenode-hadoop01.out
  23. -rw-r--r-- 1 root root 40045 831 17:55 hadoop-root-nodemanager-hadoop01.log
  24. -rw-r--r-- 1 root root 2264 831 17:55 hadoop-root-nodemanager-hadoop01.out
  25. -rw-r--r-- 1 root root 47741 831 17:55 hadoop-root-resourcemanager-hadoop01.log
  26. -rw-r--r-- 1 root root 2280 831 17:54 hadoop-root-resourcemanager-hadoop01.out
  27. -rw-r--r-- 1 root root 0 831 17:04 SecurityAuth-root.audit
  28. drwxr-xr-x 2 root root 6 831 17:54 userlogs

3.10 Hadoop Web UI 页面

3.10.1 配置 windows 域名映射

  1. 以管理员身份打开 C:\Windows\System32\drivers\etc 目录下的 hosts 文件
  2. 在文件最后添加以下映射域名和 ip 映射关系

3.10.2 访问 HDFS 集群 UI 页面

地址:http://namenode_host:9870

其中 namenode_host 是 namenode 运行所在机器的主机名或者 ip。

HDFS 文件系统 Web 页面浏览:

3.10.3 访问 YARN 集群 UI 页面 

地址:http://resourcemanager_host:8088

其中 resourcemanager_host 是 resourcemanager 运行所在机器的主机名或者 ip。

3.10.4 访问 JobHistory 服务 UI 页面

  1. # 启动 JobHistory 服务
  2. [root@hadoop01 ~]# mapred --daemon start historyserver

地址:http://historyserver_host:19888/jobhistory

其中 historyserver_host 是 historyserver 运行所在机器的主机名或者 ip。

四、Hadoop 初体验

4.1 HDFS 初体验 

4.1.1 shell 命令操作 

  1. [root@hadoop01 ~]# hadoop fs -mkdir /test1
  2. [root@hadoop01 ~]# hadoop fs -put jdk-8u381-linux-x64.tar.gz /test1
  3. [root@hadoop01 ~]# hadoop fs -ls /
  4. Found 1 items
  5. drwxr-xr-x - root supergroup 0 2023-09-01 14:43 /test1

4.1.2 Web UI 页面操作

4.2 MapReduce+YARN 初体验 

4.2.1 执行 Hadoop 官方自带的 MapReduce 案例 

评估圆周率 π 的值:

  1. [root@hadoop01 ~]# cd /bigdata/hadoop/server/hadoop-3.2.4/share/hadoop/mapreduce/
  2. [root@hadoop01 /bigdata/hadoop/server/hadoop-3.2.4/share/hadoop/mapreduce]# hadoop jar hadoop-mapreduce-examples-3.2.4.jar pi 2 4

下一篇文章:HDFS HA 高可用集群搭建详细图文教程_Stars.Sky的博客-CSDN博客 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/467498
推荐阅读
相关标签
  

闽ICP备14008679号