当前位置:   article > 正文

Hadoop2.7.5 集群搭建3节点_运用cdh或ambari进行大数据集群的自动化部署实践,要求集群的节点不少于3个。

运用cdh或ambari进行大数据集群的自动化部署实践,要求集群的节点不少于3个。

说明:

集群25号搭好,今日凌晨整理完本文方才发布。

本文目录

(一)准备

(二)开始

1、在 master 上配置免密登录

2、三台机器上配置 hosts 文件

3、在三台节点上创建运行 Hadoop 用户

4、在三台节点上安装 java 环境 jdk

5、在 master 安装 hadoop 并创建相应的工作目录

6、在 master 节点上配置 hadoop

7、修改 hadoop 安装文件的所属者及所属组

8、设置 master 主机上的 hadoop 普通用户免密登录

9、将 hadoop 安装文件复制到其他 DateNode 节点

10、master 上启动 Hadoop


(一)准备

jdk8 安装包下载地址:

JDK 下载 华为云镜像站 地址_闭关苦炼内功的博客-CSDN博客

Hadoop 2.7.5 安装包下载地址:

https://archive.apache.org/dist/hadoop/common/hadoop-2.7.5/hadoop-2.7.5.tar.gz

首先,

最最最重要的事情说三遍!!!

宿主机物理内存至少8G

宿主机物理内存至少8G

宿主机物理内存至少8G

----

宿主机就是本地物理主机实际电脑,下方链接了解清楚(本地主机)宿主机与(虚拟机)客户机

物理机(宿主机)与虚拟机(客户机)

----


开启本地主机 CPU 虚拟化(主机或笔记本或服务器)【amd 或者 intel 的 CPU 都阔以】
本地安装 vmware 虚拟机,xshell、xftp 工具
安装一台 centos7 (64bit)纯净版【1G 内存 20G 硬盘】,
无界面版安装步骤链接:
       centos7 无界面安装(全截图)_闭关苦炼内功的博客-CSDN博客

(也可安装有界面的,这个随意;不过说实话没有界面的开机明显快一些)
并备份一份留作后用(避免出现错误不能恢复)
其次,
从安装好的虚拟机上克隆出完整的三台 centos7 虚拟机
(1)每台虚拟机配置:内存配置 1G(可调大),cpu配置 1 核,具体配置详情见下图

 
(2)NAT 网络模式,配置虚拟网络 vmnet8,宿主机 ip、子网掩码、默认网关、DNS;
并为三台虚拟机生成不同 mac 物理地址
(3)三台虚拟机开机,查看并配置网络
①配置网关,永久修改机器 hostname,
主机名命名以字母,或者字母+数字命名,可以出现(-)减号,一定不要出现(_)下划线;
配置 ip 地址、DNS 地址;
②设置主机名,配置内网 ip 映射主机名
192.168.40.130 master  namenode
192.168.40.131 slave1  datanode
192.168.40.132 slave2  datanode

③重启网络服务
systemctl restart network #重启网络服务
systemctl status network #查看网络状态
④关闭防火墙
systemctl stop firewalld #停止防火墙服务
systemctl disable firewalld #禁止开机启动防火墙
systemctl status firewalld #查看防火墙状态
⑤重启设备
reboot

(二)开始

本次实验三台机器 centos7.2,同时关闭防火墙和 selinux
以 slave2 节点为例

  1. [root@slave2 ~]# systemctl status firewalld
  2. [root@slave2 ~]# getenforce
  3. Enforcing
  4. [root@slave2 ~]# setenforce 0
  5. [root@slave2 ~]#
  6. [root@slave2 ~]# getenforce
  7. Permissive


------------------------------------------------------------

1、在 master 上配置免密登录

配置在 master 上,可以 ssh 无密码登录 master,slave1,slave2

  1. [root@master ~]# ssh-keygen //一路回车
  2. [root@master ~]# ssh-copy-id root@192.168.40.130
  3. [root@master ~]# ssh-copy-id root@192.168.40.131
  4. [root@master ~]# ssh-copy-id root@192.168.40.132
  5. [root@master ~]# ssh master
  6. [root@master ~]# exit
  7. 登出
  8. Connection to master closed.
  9. [root@master ~]#
  10. [root@master ~]# ssh slave1
  11. [root@slave1 ~]# exit
  12. 登出
  13. Connection to slave1 closed.
  14. [root@master ~]#
  15. [root@master ~]# ssh slave2
  16. [root@slave2 ~]# exit
  17. 登出
  18. Connection to slave2 closed.
  19. [root@master ~]#


------------------------------------------------------------

2、三台机器上配置 hosts 文件

首先在 master 节点上配置
然后复制到其他两台机器上
scp /etc/hosts root@192.168.40.131:/etc
scp /etc/hosts root@192.168.40.132:/etc

  1. [root@master ~]# cat /etc/hosts
  2. #127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
  3. #::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
  4. 127.0.0.1 localhost
  5. 192.168.40.130 master
  6. 192.168.40.131 slave1
  7. 192.168.40.132 slave2
  8. [root@master ~]# scp /etc/hosts root@slave1:/etc
  9. [root@master ~]# scp /etc/hosts root@slave2:/etc


------------------------------------------------------------

3、在三台节点上创建运行 Hadoop 用户

useradd -u 8000 hadoop
echo hadoop | passwd --stdin hadoop
三台节点都需要创建 hadoop 用户,保持 UID 一致

  1. [root@master ~]# useradd -u 8000 hadoop
  2. [root@master ~]# echo hadoop | passwd --stdin hadoop
  3. [root@master ~]# ssh slave1
  4. Last login: Wed Mar 25 01:05:48 2020 from master
  5. [root@slave1 ~]# useradd -u 8000 hadoop
  6. [root@slave1 ~]# echo hadoop | passwd --stdin hadoop
  7. [root@slave1 ~]# exit
  8. 登出
  9. Connection to slave1 closed.
  10. [root@master ~]# ssh slave2
  11. Last login: Wed Mar 25 01:04:29 2020 from master
  12. [root@slave2 ~]# useradd -u 8000 hadoop
  13. [root@slave2 ~]# echo hadoop | passwd --stdin hadoop
  14. [root@slave2 ~]# exit
  15. 登出
  16. Connection to slave2 closed.
  17. [root@master ~]#

4、在三台节点上安装 java 环境 jdk

把 jdk 上传到/home 目录下
1)将 jdk 解压至/usr/local 目录下

  1. [root@master home]# ls
  2. centos hadoop jdk-8u112-linux-x64.tar.gz
  3. [root@master home]# tar -zxvf jdk-8u112-linux-x64.tar.gz -C /usr/local/
  4. [root@master home]# ls /usr/local/
  5. bin etc games include jdk1.8.0_112 lib lib64 libexec sbin share src
  6. [root@master home]#


2)配置 jdk 环境变量
编辑/etc/profile, 在原文件最后加

  1. [root@master home]# vim /etc/profile
  2. export JAVA_HOME=/usr/local/jdk1.8.0_112
  3. export JAVA_BIN=/usr/local/jdk1.8.0_112/bin
  4. export PATH=${JAVA_HOME}/bin:$PATH
  5. export CLASSPATH=.:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar
  6. [root@master home]# cat /etc/profile


3)执行配置文件生效:
source /etc/profile #使配置文件生效
java -version #验证 java 运行环境是否安装成功

  1. [root@master home]# source /etc/profile
  2. [root@master home]# java -version
  3. java version "1.8.0_112"
  4. Java(TM) SE Runtime Environment (build 1.8.0_112-b15)
  5. Java HotSpot(TM) 64-Bit Server VM (build 25.112-b15, mixed mode)
  6. [root@master home]#


4)将 jdk 部署到另外两台机器上

  1. [root@master home]# scp -r /usr/local/jdk1.8.0_112/ slave1:/usr/local/
  2. [root@master home]# scp -r /usr/local/jdk1.8.0_112/ slave2:/usr/local/
  3. scp /etc/profile slave1:/etc/
  4. [root@master home]# scp /etc/profile slave1:/etc/
  5. profile 100% 1945 1.9KB/s 00:00
  6. [root@master home]# scp /etc/profile slave2:/etc/
  7. profile 100% 1945 1.9KB/s 00:00
  8. [root@master home]#
  9. 使建立的环境立即生效
  10. [root@slave1 ~]# source /etc/profile
  11. [root@slave1 ~]# java -version
  12. java version "1.8.0_112"
  13. Java(TM) SE Runtime Environment (build 1.8.0_112-b15)
  14. Java HotSpot(TM) 64-Bit Server VM (build 25.112-b15, mixed mode)
  15. [root@slave2 ~]# source /etc/profile
  16. [root@slave2 ~]# java -version
  17. java version "1.8.0_112"
  18. Java(TM) SE Runtime Environment (build 1.8.0_112-b15)
  19. Java HotSpot(TM) 64-Bit Server VM (build 25.112-b15, mixed mode)

5、在 master 安装 hadoop 并创建相应的工作目录

  1. 先上传 hadoop 压缩包到/home 目录下
  2. 然后解压
  3. [root@master home]# ls
  4. centos hadoop hadoop-2.7.5.tar.gz jdk-8u112-linux-x64.tar.gz
  5. [root@master home]# tar -zxf hadoop-2.7.5.tar.gz -C /home/hadoop/
  6. [root@master home]# cd /home/hadoop/hadoop-2.7.5/
  7. 创建 hadoop 相关工作目录
  8. [root@master ~]# mkdir -p /home/hadoop/tmp
  9. [root@master ~]# mkdir -p /home/hadoop/dfs/{name,data}
  10. [root@master ~]# cd /home/hadoop/
  11. [root@master hadoop]# ls
  12. dfs hadoop-2.7.5 tmp

6、在 master 节点上配置 hadoop

配置文件位置:
/home/hadoop/hadoop-2.7.5/etc/hadoop/

  1. [root@master ~]# cd /home/hadoop/hadoop-2.7.5/etc/hadoop/
  2. [root@master hadoop]# ls
  3. capacity-scheduler.xml hadoop-policy.xml kms-log4j.properties ssl-client.xml.example
  4. configuration.xsl hdfs-site.xml kms-site.xml ssl-server.xml.example
  5. container-executor.cfg httpfs-env.sh log4j.properties yarn-env.cmd
  6. core-site.xml httpfs-log4j.properties mapred-env.cmd yarn-env.sh
  7. hadoop-env.cmd httpfs-signature.secret mapred-env.sh yarn-site.xml
  8. hadoop-env.sh httpfs-site.xml mapred-queues.xml.template
  9. hadoop-metrics2.properties kms-acls.xml mapred-site.xml.template
  10. hadoop-metrics.properties kms-env.sh slaves
  11. [root@master hadoop]#


一共需要修改 7 个配置文件:

1)hadoop-env.sh,指定 hadoop 的 java 运行环境

/usr/local/jdk1.8.0_112/

  1. [root@master hadoop]# vim hadoop-env.sh
  2. 24 # The java implementation to use.
  3. 25 export JAVA_HOME=/usr/local/jdk1.8.0_112/

2)yarn-env.sh,指定 yarn 框架的 java 运行环境
/usr/local/jdk1.8.0_112/

  1. [root@master hadoop]# vim yarn-env.sh
  2. 25 #echo "run java in $JAVA_HOME"
  3. 26 JAVA_HOME=/usr/local/jdk1.8.0_112/

3)slaves,指定 datanode 数据存储服务器
将所有 DataNode 的名字写入此文件中,每个主机名一行,配置如下:
 

  1. [root@master hadoop]# vim slaves
  2. [root@master hadoop]# cat slaves
  3. #localhost
  4. slave1
  5. slave2

4)core-site.xml,指定访问 hadoop web 界面访问路径
hadoop 的核心配置文件,这里需要配置两个属性,
fs.default.FS 配置了 hadoop 的 HDFS 系统的命名,位置为主机的 9000 端口;
hadoop.tmp.dir 配置了 hadoop 的 tmp 目录的根位置。

  1. [root@master hadoop]# vim core-site.xml
  2. 19 <configuration>
  3. 20
  4. 21 </configuration>
  5. 19 <configuration>
  6. 20
  7. 21 <property>
  8. 22 <name>fs.defaultFS</name>
  9. 23 <value>hdfs://master:9000</value>
  10. 24 </property>
  11. 25
  12. 26 <property>
  13. 27 <name>io.file.buffer.size</name>
  14. 28 <value>131072</value>
  15. 29 </property>
  16. 30
  17. 31 <property>
  18. 32 <name>hadoop.tmp.dir</name>
  19. 33 <value>file:/home/hadoop/tmp</value>
  20. 34 <description>Abase for other temporary directories.</description>
  21. 35 </property>
  22. 36
  23. 37 </configuration>

  1. [root@master hadoop]# cat core-site.xml
  2. <configuration>
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://master:9000</value>
  6. </property>
  7. <property>
  8. <name>io.file.buffer.size</name>
  9. <value>131072</value>
  10. </property>
  11. <property>
  12. <name>hadoop.tmp.dir</name>
  13. <value>file:/home/hadoop/tmp</value>
  14. <description>Abase for other temporary directories.</description>
  15. </property>
  16. </configuration>
  17. [root@master hadoop]#

5)hdfs-site.xml
hdfs 的配置文件,
dfs.http.address 配置了 hdfs 的 http 的访问位置;
dfs.replication 配置了文件块的副本数,一般不大于从机的个数。

  1. [root@master hadoop]# more hdfs-site.xml
  2. <configuration>
  3. </configuration>
  4. [root@master hadoop]# vim hdfs-site.xml
  5. 19 <configuration>
  6. 20
  7. 21 </configuration>
  8. 19 <configuration>
  9. 20
  10. 21 <property>
  11. 22 <name>dfs.namenode.secondary.http-address</name>
  12. 23 <value>master:9001</value>
  13. 24 </property>
  14. 25
  15. 26 <property>
  16. 27 <name>dfs.namenode.name.dir</name>
  17. 28 <value>file:/home/hadoop/dfs/name</value>
  18. 29 </property>
  19. 30 <property>
  20. 31 <name>dfs.datanode.data.dir</name>
  21. 32 <value>file:/home/hadoop/dfs/data</value>
  22. 33 </property>
  23. 34
  24. 35 <property>
  25. 36 <name>dfs.replication</name>
  26. 37 <value>2</value>
  27. 38 </property>
  28. 39
  29. 40 <property>
  30. 41 <name>dfs.webhdfs.enabled</name>
  31. 42 <value>true</value>
  32. 43 </property>
  33. 44
  34. 45 </configuration>

  1. [root@master hadoop]# cat hdfs-site.xml
  2. <property>
  3. <name>dfs.namenode.secondary.http-address</name>
  4. <value>master:9001</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>file:/home/hadoop/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>file:/home/hadoop/dfs/data</value>
  13. </property>
  14. <property>
  15. <name>dfs.replication</name>
  16. <value>2</value>
  17. </property>
  18. <property>
  19. <name>dfs.webhdfs.enabled</name>
  20. <value>true</value>
  21. </property>

6)mapred-site.xml
mapreduce 任务的配置,由于 hadoop2.x 使用了 yarn 框架,
所以要实现分布式部署,
必须在 mapreduce.framework.name 属性下配置为 yarn。
mapred.map.tasks 和 mapred.reduce.tasks
分别为 map 和 reduce 的任务数。 

  1. # 生成 mapred-site.xml
  2. [root@master hadoop]# cp mapred-site.xml.template mapred-site.xml
  3. [root@master hadoop]#
  4. 编辑:
  5. [root@master hadoop]# vim mapred-site.xml
  6. 18
  7. 19 <configuration>
  8. 20
  9. 21 </configuration>
  10. 19 <configuration>
  11. 20
  12. 21 <property>
  13. 22 <name>mapreduce.framework.name</name>
  14. 23 <value>yarn</value>
  15. 24 </property>
  16. 25
  17. 26 <property>
  18. 27 <name>mapreduce.jobhistory.address</name>
  19. 28 <value>master:10020</value>
  20. 29 </property>
  21. 30
  22. 31 <property>
  23. 32 <name>mapreduce.jobhistory.webapp.address</name>
  24. 33 <value>master:19888</value>
  25. 34 </property>
  26. 35
  27. 36 </configuration>

  1. 查看:
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>master:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>master:19888</value>
  13. </property>

7)yarn-site.xml
该文件为 yarn 框架的配置,主要是一些任务的启动位置

  1. [root@master hadoop]# vim yarn-site.xml
  2. 15 <configuration>
  3. 16
  4. 17 <!-- Site specific YARN configuration properties -->
  5. 18
  6. 19 </configuration>
  7. 15 <configuration>
  8. 16
  9. 17 <!-- Site specific YARN configuration properties -->
  10. 18
  11. 19 <property>
  12. 20 <name>yarn.nodemanager.aux-services</name>
  13. 21 <value>mapreduce_shuffle</value>
  14. 22 </property>
  15. 23
  16. 24 <property>
  17. 25 <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  18. 26 <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  19. 27 </property>
  20. 28
  21. 29 <property>
  22. 30 <name>yarn.resourcemanager.address</name>
  23. 31 <value>master:8032</value>
  24. 32 </property>
  25. 33
  26. 34 <property>
  27. 35 <name>yarn.resourcemanager.scheduler.address</name>
  28. 36 <value>master:8030</value>
  29. 37 </property>
  30. 38
  31. 39 <property>
  32. 40 <name>yarn.resourcemanager.resource-tracker.address</name>
  33. 41 <value>master:8031</value>
  34. 42 </property>
  35. 43
  36. 44 <property>
  37. 45 <name>yarn.resourcemanager.admin.address</name>
  38. 46 <value>master:8033</value>
  39. 47 </property>
  40. 48
  41. 49 <property>
  42. 50 <name>yarn.resourcemanager.webapp.address</name>
  43. 51 <value>master:8088</value>
  44. 52 </property>
  45. 53
  46. 54 </configuration>
  47. ----------------------------------------------------

  1. 查看:
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  8. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  9. </property>
  10. <property>
  11. <name>yarn.resourcemanager.address</name>
  12. <value>master:8032</value>
  13. </property>
  14. <property>
  15. <name>yarn.resourcemanager.scheduler.address</name>
  16. <value>master:8030</value>
  17. </property>
  18. <property>
  19. <name>yarn.resourcemanager.resource-tracker.address</name>
  20. <value>master:8031</value>
  21. </property>
  22. <property>
  23. <name>yarn.resourcemanager.admin.address</name>
  24. <value>master:8033</value>
  25. </property>
  26. <property>
  27. <name>yarn.resourcemanager.webapp.address</name>
  28. <value>master:8088</value>
  29. </property>

7、修改 hadoop 安装文件的所属者及所属组

  1. chown -R hadoop.hadoop /home/hadoop
  2. [root@master ~]# cd /home/hadoop/
  3. [root@master hadoop]# ll
  4. 总用量 4
  5. drwxr-xr-x. 4 root root 28 325 01:48 dfs
  6. drwxr-xr-x. 9 20415 101 4096 1216 2017 hadoop-2.7.5
  7. drwxr-xr-x. 2 root root 6 325 01:48 tmp
  8. [root@master hadoop]# chown -R hadoop.hadoop /home/hadoop
  9. [root@master hadoop]# ll
  10. 总用量 4
  11. drwxr-xr-x. 4 hadoop hadoop 28 325 01:48 dfs
  12. drwxr-xr-x. 9 hadoop hadoop 4096 1216 2017 hadoop-2.7.5
  13. drwxr-xr-x. 2 hadoop hadoop 6 325 01:48 tmp
  14. [root@master hadoop]#

8、设置 master 主机上的 hadoop 普通用户免密登录

生成基于 hadoop 用户的不输入密码登录:
因为后期使用 hadoop 用户启动 datenode 节点需要直接登录到对应的服务器上启动 datenode 相关服务

  1. # step 1:切换 hadoop 用户
  2. [root@master ~]# su - hadoop
  3. 上一次登录:三 325 02:32:57 CST 2020pts/0
  4. [hadoop@master ~]$
  5. # step 2:创建密钥文件
  6. [hadoop@master ~]$ ssh-keygen //一路回车
  7. [hadoop@master ~]$
  8. # step 3:将公钥分别 copy 至 master,slave1,slave2
  9. [hadoop@master ~]$ ssh-copy-id hadoop@master
  10. [hadoop@master ~]$ ssh-copy-id hadoop@slave1
  11. [hadoop@master ~]$ ssh-copy-id hadoop@slave2
  12. [hadoop@master ~]$

9、将 hadoop 安装文件复制到其他 DateNode 节点

  1. [hadoop@master ~]$ scp -r /home/hadoop/hadoop-2.7.5/ hadoop@slave1:~/
  2. [hadoop@master ~]$ scp -r /home/hadoop/hadoop-2.7.5/ hadoop@slave2:~/

10、master 上启动 Hadoop

1)格式化 namenode
首先切换到 hadoop 用户,执行 hadoop namenode 的初始化,只需要第一次的时候初始化,之后就不需要了。

  1. [hadoop@master ~]$ cd /home/hadoop/hadoop-2.7.5/bin/
  2. [hadoop@master bin]$
  3. [hadoop@master bin]$ ./hdfs namenode -format
  4. format 成功
  5. ---------------------------------------------------------
  6. 20/03/25 02:48:24 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1015689718-192.168.40.130-
  7. 1585075704098
  8. 20/03/25 02:48:24 INFO common.Storage: Storage directory /home/hadoop/dfs/name has been successfully
  9. formatted.
  10. 20/03/25  02:48:24  INFO  namenode.FSImageFormatProtobuf:  Saving  image  file
  11. /home/hadoop/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
  12. 20/03/25  02:48:24  INFO  namenode.FSImageFormatProtobuf:  Image  file
  13. /home/hadoop/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 323 bytes saved in 0 seconds.
  14. 20/03/25 02:48:24 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
  15. 20/03/25 02:48:24 INFO util.ExitUtil: Exiting with status 0
  16. 20/03/25 02:48:24 INFO namenode.NameNode: SHUTDOWN_MSG:
  17. /************************************************************
  18. SHUTDOWN_MSG: Shutting down NameNode at master/192.168.40.130
  19. ************************************************************/
  20. [hadoop@master bin]$
  21. ---------------------------------------------------------

2)查看下格式化后生成的文件;

  1. [hadoop@master ~]$ tree /home/hadoop/dfs/
  2. bash: tree: 未找到命令...
  3. [hadoop@master ~]$


-----------------------------------------------------------
没有 tree 命令,等一下再专门搞 tree 命令

  1. yum provides tree
  2. yum -y install tree

然后

  1. [hadoop@master ~]$ tree /home/hadoop/dfs/
  2. /home/hadoop/dfs/
  3. ├── data
  4. └── name
  5. └── current
  6. ├── edits_0000000000000000001-0000000000000000002
  7. ├── edits_0000000000000000003-0000000000000000011
  8. ├── edits_0000000000000000012-0000000000000000013
  9. ├── edits_0000000000000000014-0000000000000000015
  10. ├── edits_0000000000000000016-0000000000000000017
  11. ├── edits_0000000000000000018-0000000000000000019
  12. ├── edits_0000000000000000020-0000000000000000021
  13. ├── edits_0000000000000000022-0000000000000000023
  14. ├── edits_0000000000000000024-0000000000000000025
  15. ├── edits_0000000000000000026-0000000000000000027
  16. ├── edits_0000000000000000028-0000000000000000029
  17. ├── edits_0000000000000000030-0000000000000000031
  18. ├── edits_0000000000000000032-0000000000000000032
  19. ├── edits_0000000000000000033-0000000000000000034
  20. ├── edits_0000000000000000035-0000000000000000036
  21. ├── edits_0000000000000000037-0000000000000000037
  22. ├── edits_0000000000000000038-0000000000000000039
  23. ├── edits_inprogress_0000000000000000040
  24. ├── fsimage_0000000000000000037
  25. ├── fsimage_0000000000000000037.md5
  26. ├── fsimage_0000000000000000039
  27. ├── fsimage_0000000000000000039.md5
  28. ├── seen_txid
  29. └── VERSION
  30. 3 directories, 24 files
  31. [hadoop@master ~]$


-----------------------------------------------------------

3)启动 hdfs:./sbin/start-dfs.sh,即启动 HDFS 分布式存储

  1. [root@master ~]# su - hadoop
  2. 上一次登录:三 325 02:33:32 CST 2020pts/0
  3. [hadoop@master ~]$ cd /home/hadoop/hadoop-2.7.5/sbin/
  4. [hadoop@master sbin]$
  5. [hadoop@master sbin]$ ./start-dfs.sh
  6. Starting namenodes on [master]
  7. master: starting namenode, logging to /home/hadoop/hadoop-2.7.5/logs/hadoop-hadoop-namenode-
  8. master.out
  9. slave1: starting datanode, logging to /home/hadoop/hadoop-2.7.5/logs/hadoop-hadoop-datanode-
  10. slave1.out
  11. slave2: starting datanode, logging to /home/hadoop/hadoop-2.7.5/logs/hadoop-hadoop-datanode-
  12. slave2.out
  13. Starting secondary namenodes [master]
  14. master: starting secondarynamenode, logging to /home/hadoop/hadoop-2.7.5/logs/hadoop-hadoop-
  15. secondarynamenode-master.out
  16. [hadoop@master sbin]$

4)启动 yarn:./sbin/start-yarn.sh 即,启动分布式计算

  1. [hadoop@master sbin]$ ./start-yarn.sh
  2. starting yarn daemons
  3. starting resourcemanager, logging to /home/hadoop/hadoop-2.7.5/logs/yarn-hadoop-resourcemanager-
  4. master.out
  5. slave2: starting nodemanager, logging to /home/hadoop/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-
  6. slave2.out
  7. slave1: starting nodemanager, logging to /home/hadoop/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-
  8. slave1.out
  9. [hadoop@master sbin]$


注意:
其实也可以使用 start-all.sh 脚本依次启动 HDFS 分布式存储及分布式计算。
/home/hadoop/hadoop-2.7.5/sbin/start-all.sh #启动脚本
/home/hadoop/hadoop-2.7.5/sbin/stop-all.sh # 关闭脚本

5)启动历史服务

Hadoop 自带历史服务器,可通过历史服务器查看已经运行完的 Mapreduce 作业记录,
比如用了多少个 Map、用了多少个 Reduce、作业提交时间、作业启动时间、作业完成时间等信息。
默认情况下,Hadoop 历史服务器是没有启动的,我们可以通过下面的命令来启动 Hadoop 历史服务器。

  1. [hadoop@master sbin]$ ./mr-jobhistory-daemon.sh start historyserver
  2. starting  historyserver,  logging  to  /home/hadoop/hadoop-2.7.5/logs/mapred-hadoop-historyserver-
  3. master.out
  4. [hadoop@master sbin]$ cd /home/hadoop/hadoop-2.7.5/bin/

6)查看hdfs

  1. [hadoop@master bin]$ ./hdfs dfsadmin -report
  2. Configured Capacity: 37492883456 (34.92 GB)
  3. Present Capacity: 20249128960 (18.86 GB)
  4. DFS Remaining: 20249120768 (18.86 GB)
  5. DFS Used: 8192 (8 KB)
  6. DFS Used%: 0.00%
  7. Under replicated blocks: 0
  8. Blocks with corrupt replicas: 0
  9. Missing blocks: 0
  10. Missing blocks (with replication factor 1): 0
  11. -------------------------------------------------
  12. Live datanodes (2):
  13. Name: 192.168.40.132:50010 (slave2)
  14. Hostname: slave2
  15. Decommission Status : Normal
  16. Configured Capacity: 18746441728 (17.46 GB)
  17. DFS Used: 4096 (4 KB)
  18. Non DFS Used: 7873466368 (7.33 GB)
  19. DFS Remaining: 10872971264 (10.13 GB)
  20. DFS Used%: 0.00%
  21. DFS Remaining%: 58.00%
  22. Configured Cache Capacity: 0 (0 B)
  23. Cache Used: 0 (0 B)
  24. Cache Remaining: 0 (0 B)
  25. Cache Used%: 100.00%
  26. Cache Remaining%: 0.00%
  27. Xceivers: 1
  28. Last contact: Wed Mar 25 05:45:40 CST 2020
  29. Name: 192.168.40.131:50010 (slave1)
  30. Hostname: slave1
  31. Decommission Status : Normal
  32. Configured Capacity: 18746441728 (17.46 GB)
  33. DFS Used: 4096 (4 KB)
  34. Non DFS Used: 9370288128 (8.73 GB)
  35. DFS Remaining: 9376149504 (8.73 GB)
  36. DFS Used%: 0.00%
  37. DFS Remaining%: 50.02%
  38. Configured Cache Capacity: 0 (0 B)
  39. Cache Used: 0 (0 B)
  40. Cache Remaining: 0 (0 B)
  41. Cache Used%: 100.00%
  42. Cache Remaining%: 0.00%
  43. Xceivers: 1
  44. Last contact: Wed Mar 25 05:45:42 CST 2020
  45. [hadoop@master bin]$

7)查看进程

  1. [hadoop@master ~]$ jps
  2. 57920 NameNode
  3. 58821 Jps
  4. 58087 SecondaryNameNode
  5. 58602 JobHistoryServer
  6. 58287 ResourceManager
  7. [hadoop@slave1 ~]$ jps
  8. 54626 NodeManager
  9. 54486 DataNode
  10. 54888 Jps
  11. [hadoop@slave2 ~]$ jps
  12. 54340 DataNode
  13. 54473 NodeManager
  14. 54735 Jps


查看Hadoop面板,浏览器访问

http://192.168.40.130:50070/

查看集群节点,浏览器访问

http://192.168.40.130:8088/

查看历史服务器,浏览器访问

http://192.168.40.130:19888/


若想访问域名,则本地win7/10配置 hosts,

先修改hosts权限

  1. 192.168.40.130 master
  2. 192.168.40.131 slave1
  3. 192.168.40.132 slave2

然后再访问:

http://master:50070/

http://master:8088/

http://master:19888/

--

待续……

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/412635
推荐阅读
相关标签
  

闽ICP备14008679号