当前位置:   article > 正文

Hadoop虚拟机配置_vm中搭建hadoop如何给虚拟机分配ip地址

vm中搭建hadoop如何给虚拟机分配ip地址

一、配置固定IP地址

  1. 开启node1,修改主机名为node1,并修改固定ip为:192.168.88.131 #这里ip是为了演示,可以换成其他的
  2. #修改主机名
  3. hostnamectl set-hostname node1
  4. #修改IP地址
  5. vim /etc/sysconfig/network-scripts/ifcfg-ens33
  6. BOOTPROTO="static"
  7. IPADDR="192.168.88.101"
  8. NETMASK="255.255.255.0"
  9. GATEWAY="192.168.88.2"
  10. DNS1="192.168.88.2"

  1. #重启网卡
  2. systemctl stop network
  3. systemctl start network
  4. #或者直接
  5. systemctl restart network
  6. #查看IP信息
  7. ifconfig

二、配置主机名映射

1.在Windows系统中修改nosts文件,填入如下内容:

  1. 192.168.88.101 node1
  2. 192.168.88.102 node2
  3. 192.168.88.103 node3

2.在3台Linux的/etc/hosts文件中,填入如下内容(3台都要添加)

  1. vim /etc/hosts
  2. 192.168.88.101 node1
  3. 192.168.88.102 node2
  4. 192.168.88.103 node3

三、配置SSH免密登录

后续安装的集群化软件,多数需要远程登录以及远程执行命令,我们可以简单起见,配置三台Linux服务器之间的密

码互相SSH登陆

1.在每一台机器都执行:`ssh-keygen -t rsa -b 4096`,一路回车到底即可

2.在每一台机器都执行:

  1. ssh-copy-id node1
  2. ssh-copy-id node2
  3. ssh-copy-id node3

3.执行完毕后,node1、node2、node3之间将完成root用户之间的免密互通

  1. ssh node1
  2. ssh node2
  3. ssh node3

四、创建hadoop用户并配置免密登录

后续大数据的软件,将不会以root用户启动

我们为大数据的软件创建一个单独的用户hadoop,并为三台服务器同样配置hadoop用户的免密互通

  1. 1.在每一台机器执行:useradd hadoop,创建hadoop用户
  2. 2.在每一台机器执行:passwd hadoop,设置hadoop密码
  3. 3.在每一台机器均切换到nadoop用户:su - hadoop,并执行ssh-keygen -t rsa -b 4096,创建ssh密钥
  4. 4.在每一台机器均执行
  5. ssh-copy-id node1
  6. ssh-copy-id node2
  7. ssh-copy-id node3

五、配置JDK环境

  1. 3.解压缩JDK安装文件
  2. tar -zxvf jdk-8u361-linux-x64.tar.gz -C /export/server
  3. 4.配置JDK的软链接
  4. ln -s /export/server/jdk1.8.0_361 /export/server/jdk
  5. 5.配置JAVA_HOME环境变量,以及将$JAVA HOME/bin文件夹加入PATH环境变量中
  6. # 编辑/etc/profile文件
  7. vim /etc/profile
  8. export JAVA_HOME=/export/server/jdk
  9. export PATH=$PATH:$JAVA_HOME/bin

  1. 6.生效环境变量
  2. source /etc/profile
  3. 7.配置java执行程序的软链接
  4. # 删除系统自带的java程序
  5. rm -f /usr/bin/java
  6. #软链接我们自己安装的java程序
  7. ln -s /export/server/jdk/bin/java /usr/bin/java
  8. 8.执行验证
  9. java -version
  10. javac -version

  1. 9.同步复制文件夹到其他两个服务器
  2. scp -r jdk1.8.0_361 node2:`pwd`/
  3. scp -r jdk1.8.0_361 node3:`pwd`/

六、关闭防火墙和SELinux

集群化软件之间需要通过端口互相通讯,为了避免出现网络不通的问题,我们可以简单的在集群内部关闭防火墙。

在每一台机器都执行

  1. systemctl stop firewalld
  2. systemctl disable firewalld

Linux有一个安全模块:SELinux,用以限制用户和程序的相关权限,来确保系统的安全稳定。

在当前,我们只需要关闭SELinux功能,避免导致后面的软件运行出现问题即可

在每一台机器都执行

  1. vim /etc/sysconfig/selinux
  2. # 将第七行,SELINUX=enforcing 改为
  3. SELINUX=disabled
  4. # 保存退出后,重启虚拟机即可,千万要注意disabled单词不要写错,不然无法启动系统

七、修改时区并配置自动时间同步

以下操作在三台Linux均执行

  1. 1.安装ntp软件
  2. yum install -y ntp
  3. 2.更新时区
  4. rm -f /etc/localtime
  5. ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
  6. 3.同步时间
  7. ntpdate -u ntp.aliyun.com
  8. 4.开启ntp服务并设置开机自启
  9. systemctl start ntpd
  10. systemctl enable ntpd

八、上传&解压

  1. 1.上传Hadoop安装包到node1节点中
  2. 2.解压缩安装包到/export/server/中
  3. tar -zxvf hadoop-3.4.0.tar.gz -C /export/server/
  4. 3.构建软链接
  5. cd /export/server
  6. ln -s /export/server/hadoop-3.4.0 hadoop

九、修改配置文件,应用自定义设置

  1. 1.配置workers文件
  2. #进入配置文件目录
  3. cd /export/server/hadoop/etc/hadoop
  4. #编辑workers文件 (填入的node1、node2、node3)
  5. vim workers
  6. #填入如下内容 (表明集群记录了三个从节点(DataNode))
  7. node1
  8. node2
  9. node3
  10. 2.配置hadoop-env.sh文件
  11. vim hadoop-env.sh
  12. #填入如下内容
  13. export JAVA_HOME=/export/server/jdk #JAVA_HOME,指明JDK环境的位置在哪
  14. export HADOOP_HOME=/export/server/hadoop #HADOOP_HOME,指明Hadoop安装位置
  15. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop #HADOOP_CONF_DIR,指明Hadoop配置文件目录位置
  16. export HADOOP_LOG_DIR=$HADOOP_HOME/logs #HADOOP_LOG_DIR,指明Hadoop运行日志目录位置
  17. #通过记录这些环境变量,来指明上述运行时的重要信息
  18. 3.配置core-site.xml文件
  19. vim core-site.xml
  20. #编辑内容如下
  21. <configuration>
  22. <property>
  23. <name>fs.defaultFS</name>
  24. <value>hdfs://node1:8020</value>
  25. </property>
  26. <property>
  27. <name>io.file.buffer.size</name>
  28. <value>131072</value>
  29. </property>
  30. </configuration>
  31. 4.配置hdfs-site.xml文件
  32. vim hdfs-site.xml
  33. #编辑内容如下
  34. <configuration>
  35. <property>
  36. <name>dfs.datanode.data.dir.perm</name>
  37. <value>700</value>
  38. </property>
  39. <property>
  40. <name>dfs.namenode.name.dir</name>
  41. <value>/data/nn</value>
  42. </property>
  43. <property>
  44. <name>dfs.namenode.hosts</name>
  45. <value>node1,node2,node3</value>
  46. </property>
  47. <property>
  48. <name>dfs.blocksize</name>
  49. <value>268435456</value>
  50. </property>
  51. <property>
  52. <name>dfs.namenode.handler.count</name>
  53. <value>100</value>
  54. </property>
  55. <property>
  56. <name>dfs.datanode.data.dir</name>
  57. <value>/data/dn</value>
  58. </property>
  59. </configuration>
  60. 5.在/目录下创建文件夹
  61. #node1需创建
  62. mkdir -p /data/nn
  63. mkdir -p /data/dn
  64. #node2,node3需创建
  65. mkdir -p /data/dn

十、分发Hadoop文件夹

  1. 1.分发
  2. # 在node1执行如下命令
  3. cd /export/server
  4. scp -r hadoop-3.4.0 node2:`pwd`/
  5. scp -r hadoop-3.4.0 node3:`pwd`/
  6. 2.在node2执行,为hadoop配置软链接
  7. # 在node2执行如下命令
  8. ln -s /export/server/hadoop-3.4.0 /export/server/hadoop
  9. 3.在node3执行,为hadoop配置软链接
  10. # 在node3执行如下命令
  11. ln -s /export/server/hadoop-3.4.0 /export/server/hadoop

十一、配置环境变量

  1. node1,node2,node3同样配置环境变量
  2. vim /etc/profile
  3. # 在/etc/profile文件底部追加如下内容
  4. export HADOOP_HOME=/export/server/hadoop
  5. export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  6. # 生效环境变量
  7. source /etc/profile

十二、授权为hadoop用户

# 以root身份,在三台服务器上均执行

  1. chown -R hadoop:hadoop /data
  2. chown -R hadoop:hadoop /export

十三、格式化整个文件系统

  1. 1.格式化namenode
  2. # 确保以hadoop用户执行
  3. su - hadoop
  4. # 格式化namenode
  5. hadoop namenode -format
  6. 2.启动
  7. # 一键启动hdfs集群
  8. start-dfs.sh
  9. #查看当前系统正在运行的java进程
  10. jps
  11. # 一键关闭hdfs集群
  12. stop-dfs.sh
  13. # 如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行
  14. /export/server/hadoop/sbin/start-dfs.sh
  15. /export/server/hadoop/sbin/stop-dfs.sh

十四、查看HDFS WEBUI

启动完成后,可以在浏览器打开:

http://node1公网IP:9870,即可查看到hdfs文件系统的管理网页。

或者直接在浏览器输入node1:9870即可访问页面。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/873898
推荐阅读
相关标签
  

闽ICP备14008679号