当前位置:   article > 正文

Linux环境下Hadoop3.2.0集群部署

hadoop3.2.0

 前置环境部署

虚拟机VM16安装-CSDN博客

CentOS安装-CSDN博客

修改VM虚拟机网络-CSDN博客

Hadoop部署前置环境配置-主机名、IP配置-CSDN博客

Linux环境下SSH免密登录设置-CSDN博客

Linux环境下Java JDK环境安装-CSDN博客

Linux环境下Hadoop3.2.0单机部署-CSDN博客

虚拟机克隆

①关闭要被克隆的虚拟机

②找到克隆选项

③欢迎页面点击下一步

④克隆虚拟机,克隆自虚拟机的当前状态后,点击下一步

⑤设置创建完整克隆

⑥设置克隆的虚拟机名称和存储位置

⑦等待正在克隆

⑧点击关闭,完成克隆

修改各主机配置文件

Hadoop101服务器上修改

  • 修改主机名为hadoop101

切换到root

  1. su root
  2. [root@localhost ~]# vi /etc/hostname

  • 修改IP
  1. su root
  2. [root@localhost ~]# vi /etc/hostname
  1. TYPE="Ethernet"
  2. BOOTPROTO="static"
  3. DEFROUTE="yes"
  4. PEERDNS="yes"
  5. PEERROUTES="yes"
  6. IPV4_FAILURE_FATAL="no"
  7. IPV6INIT="yes"
  8. IPV6_AUTOCONF="yes"
  9. IPV6_DEFROUTE="yes"
  10. IPV6_PEERDNS="yes"
  11. IPV6_PEERROUTES="yes"
  12. IPV6_FAILURE_FATAL="no"
  13. IPV6_ADDR_GEN_MODE="stable-privacy"
  14. NAME="ens33"
  15. UUID="92080b37-6045-47a2-872c-a832939226f4"
  16. DEVICE="ens33"
  17. ONBOOT="yes"
  18. IPADDR=192.168.1.101
  19. GATEWAY=192.168.1.2
  20. NETMASK=255.255.255.0
  21. DNS1=192.168.1.2

重启系统:

reboot

此处可以使用mobaxterm连接测试

Hadoop102服务器上修改

  • 修改主机名为hadoop102

切换到root

  1. su root
  2. vi /etc/hostname

修改IP

[root@hadoop100 ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33

内容如下

  1. TYPE="Ethernet"
  2. BOOTPROTO="static"
  3. DEFROUTE="yes"
  4. PEERDNS="yes"
  5. PEERROUTES="yes"
  6. IPV4_FAILURE_FATAL="no"
  7. IPV6INIT="yes"
  8. IPV6_AUTOCONF="yes"
  9. IPV6_DEFROUTE="yes"
  10. IPV6_PEERDNS="yes"
  11. IPV6_PEERROUTES="yes"
  12. IPV6_FAILURE_FATAL="no"
  13. IPV6_ADDR_GEN_MODE="stable-privacy"
  14. NAME="ens33"
  15. UUID="92080b37-6045-47a2-872c-a832939226f4"
  16. DEVICE="ens33"
  17. ONBOOT="yes"
  18. IPADDR=192.168.1.102
  19. GATEWAY=192.168.1.2
  20. NETMASK=255.255.255.0
  21. DNS1=192.168.1.2

重启系统:

reboot

此处可以使用mobaxterm连接测试

修改配置文件执行集群间拷贝

修改hadoop100上面的workers

vi /usr/local/soft/hadoop-3.2.0/etc/hadoop/workers

添加hadoop101和hadoop102

同步修改后文件到hadoop101和hadoop102上

  1. scp /usr/local/soft/hadoop-3.2.0/etc/hadoop/workers root@hadoop101:/usr/local/soft/hadoop-3.2.0/etc/hadoop/
  2. scp /usr/local/soft/hadoop-3.2.0/etc/hadoop/workers root@hadoop102:/usr/local/soft/hadoop-3.2.0/etc/hadoop/

拷贝完成,检查另两台机器是否执行拷贝成功

集群SSH免密登录配置

.ssh文件夹下(~/.ssh)的文件功能解释

known_hosts

记录ssh访问过计算机的公钥(public key)

id_rsa

生成的私钥

id_rsa.pub

生成的公钥

authorized_keys

存放授权过的无密登录服务器公钥

  1. ssh-copy-id hadoop100
  2. ssh-copy-id hadoop101
  3. ssh-copy-id hadoop102

三个服务器上都用root账户执行上述脚本

格式化系统

将三个服务器上的/data全部删除(如果单机启动过必须执行此步骤,如果单机没有格式化及启动过,此步骤省略),各服务器上执行如下命令:

rm -fr /data

hadoop100服务器上执行:

hdfs namenode  -format

集群启动

定位到路径:

cd /usr/local/soft/hadoop-3.2.0/

执行

./sbin/start-all.sh

从节点生成相关文件

停止:

./sbin/stop-all.sh

集群查看

jps

HDFS Web页面

http://hadoop100:9870/

YARN Web页面

http://hadoop100:8088/

创建test文件夹: 

hadoop fs -mkdir /test

附常见问题:FAQ

1、如果集群正常启动,发现网页中没有子节点:

先关闭集群:

./sbin/stop-all.sh

查找主节点version中的集群ID,路径/data/hadoop/hdfs/name/current/

在两个从节点中找到从节点的version,路径:/data/hdfs/data/current/

clusterID从节点需要和主节点保持一致,如果从节点没有current文件夹,再自己检查配置和日志文件里面错误信息

2、启动都成功,网页中没有从节点

检查防火墙是否关闭

3、格式化失败,报权限问题

检查hadoop文件夹所有者是否当前用户,如果不是,执行命令

chown -R root /usr/local/soft/hadoop-3.2.0

4、如果某个端口号不起作用,命令查看端口启动情况

netstat -tlpn

5、整个文件夹拷贝

  1. scp -r /usr/local/soft/hadoop-3.2.0 root@hadoop100:/usr/local/soft/hadoop-3.2.0
  2. scp -r /usr/local/soft/hadoop-3.2.0 root@hadoop100:/usr/local/soft/hadoop-3.2.0

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号