当前位置:   article > 正文

hadoop的安装与部署_安装部署hadoop

安装部署hadoop

1.虚拟机网络的配置

1.网络的配置

点击vmware的编辑,然后点击虚拟网络编辑器。

在点击这个更改设置,进入NAT的设置与DHCP设置。 

在这里面设置自己的网关192.168.000.2,其中000在每台电脑不一样需要自己去看。 

设置 DHCP,192.168.000.128与192.168.000.254.然后点击确定。 

退出后选择应用。这个是给虚拟机联网的

2.ip地址的配置 

由于我们每次进去虚拟机ip地址可能不一样,所以我们配置固定的ip地址方便我们远程联机。在虚拟机中我们输入命令来配置ip

vi /etc/sysconfig/network-scripts/ifcfg-ens33

在文件中我们我们修改并添加内容 (其中000为自己电脑的,每个人不一样)

  1. #修改:
  2. BOOTPROTO=static
  3. ONBOOT=yes
  4. #添加以下内容
  5. NM_CONTROLLED=no
  6. IPADDR=192.168.000.130
  7. NETMASK=255.255.255.0
  8. GATEWAY=192.168.000.2
  9. DNS=8.8.8.8

然后输入命令重启网络然后就能看到我们自己配置的ip地址。

  1. service network restart
  2. ip addr

现在我们可以用xshall来远程登录了,对我们的电脑进行配置。

2.hadoop 文件配置 

1.yum源的配置 

以阿里的yum源来配置为例,因为系统自带的yum源下载可能比较缓慢。先备份系统自己的yum源,然后在下载阿里的yum源作为默认的系统默认yum源 。

mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak

然后现在下载阿里的yum源 

wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

在这里面要用一个工具wget有的系统可能没有装,在这里面我们就不介绍了。 然后要清除原来的yum缓存,然后生成新的yum缓存。

  1. yum clean all
  2. yum makecache

现在我们配置好一台虚拟机的配置,我们需要克隆出来两台虚拟机来进行集群的搭建。克隆两台以后更改虚拟机的ip。具体参照上面的ip地址配置更改IPADDR=192.168.000.131与192.168.000.132。在重启网络,看ip地址是否改变。然后我们就可以用xshall连接这两台电脑。然后对每台电脑进行改名。 

  1. hostnamectl set-hostname master
  2. hostnamectl set-hostname slave1
  3. hostnamectl set-hostname slave2

2.hadoop的安装与文件配置 

1.安装jdk每个节点都要安装

将jdk的安装包传入到虚拟机的/opt目录下面,进入/opt,对jdk进行安装。 

rpm -ivh jdk-8u381-linux-x64.rpm

注意查看自己的jdk路径,后面很重要。在将hadoop传入master的?opt目录下面,然后进去/opt对hadoop进行解压与安装到/usr/local中。

tar -zxf hadoop-3.1.4.tar.gz -C /usr/local

在进入hadoop中对配置文件进行配置

cd /usr/local/hadoop-3.1.4/etc/hadoop/

对 core-site.xml文件进行配置vi cor-site.xml。

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://master:8020</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/var/log/hadoop/tmp</value>
  9. </property>
  10. <property>
  11. <name>hadoop.http.staticuser.user</name>
  12. <value>root</value>
  13. </property>
  14. </configuration>

 对hadoop-env.sh文件进行配置 vi hadoop-env.sh。更改为自己的jdk路径。

export JAVA_HOME=/usr/java/jdk1.8.0_281-amd64

在对hdfs-site.xml文件进行配置 vi hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.namenode.name.dir</name>
  4. <value>file:///data/hadoop/hdfs/name</value>
  5. </property>
  6. <property>
  7. <name>dfs.datanode.data.dir</name>
  8. <value>file:///data/hadoop/hdfs/data</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.secondary.http-address</name>
  12. <value>master:50090</value>
  13. </property>
  14. <property>
  15. <name>dfs.replication</name>
  16. <value>2</value>
  17. </property>
  18. </configuration>

对yarn-site.xml文件进行配置,注意在后面的/usr/local/hadoop-3.1.4/etc/hadoop每个人的位置不一样需要改!!!!

  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3. <property>
  4. <name>yarn.resourcemanager.hostname</name>
  5. <value>master</value>
  6. </property>
  7. <property>
  8. <name>yarn.resourcemanager.address</name>
  9. <value>${yarn.resourcemanager.hostname}:8032</value>
  10. </property>
  11. <property>
  12. <name>yarn.resourcemanager.scheduler.address</name>
  13. <value>${yarn.resourcemanager.hostname}:8030</value>
  14. </property>
  15. <property>
  16. <name>yarn.resourcemanager.webapp.address</name>
  17. <value>${yarn.resourcemanager.hostname}:8088</value>
  18. </property>
  19. <property>
  20. <name>yarn.resourcemanager.webapp.https.address</name>
  21. <value>${yarn.resourcemanager.hostname}:8090</value>
  22. </property>
  23. <property>
  24. <name>yarn.resourcemanager.resource-tracker.address</name>
  25. <value>${yarn.resourcemanager.hostname}:8031</value>
  26. </property>
  27. <property>
  28. <name>yarn.resourcemanager.admin.address</name>
  29. <value>${yarn.resourcemanager.hostname}:8033</value>
  30. </property>
  31. <property>
  32. <name>yarn.nodemanager.local-dirs</name>
  33. <value>/data/hadoop/yarn/local</value>
  34. </property>
  35. <property>
  36. <name>yarn.log-aggregation-enable</name>
  37. <value>true</value>
  38. </property>
  39. <property>
  40. <name>yarn.nodemanager.remote-app-log-dir</name>
  41. <value>/data/tmp/logs</value>
  42. </property>
  43. <property>
  44. <name>yarn.log.server.url</name>
  45. <value>http://master:19888/jobhistory/logs/</value>
  46. <description>URL for job history server</description>
  47. </property>
  48. <property>
  49. <name>yarn.nodemanager.vmem-check-enabled</name>
  50. <value>false</value>
  51. </property>
  52. <property>
  53. <name>yarn.nodemanager.aux-services</name>
  54. <value>mapreduce_shuffle</value>
  55. </property>
  56. <property>
  57. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  58. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  59. </property>
  60. <property>
  61. <name>yarn.scheduler.minimum-allocation-mb</name>
  62. <value>512</value>
  63. </property>
  64. <property>
  65. <name>yarn.scheduler.maximum-allocation-mb</name>
  66. <value>4096</value>
  67. </property>
  68. <property>
  69. <name>mapreduce.map.memory.mb</name>
  70. <value>2048</value>
  71. </property>
  72. <property>
  73. <name>mapreduce.reduce.memory.mb</name>
  74. <value>2048</value>
  75. </property>
  76. <property>
  77. <name>yarn.nodemanager.resource.cpu-vcores</name>
  78. <value>1</value>
  79. </property>
  80. <property>
  81. <name>yarn.application.classpath </name>
  82. <value>
  83. /usr/local/hadoop-3.1.4/etc/hadoop:/usr/local/hadoop3.1.4/share/hadoop/common/lib/*:/usr/local/hadoop3.1.4/share/hadoop/common/*:/usr/local/hadoop3.1.4/share/hadoop/hdfs:/usr/local/hadoop3.1.4/share/hadoop/hdfs/lib/*:/usr/local/hadoop3.1.4/share/hadoop/hdfs/*:/usr/local/hadoop3.1.4/share/hadoop/mapreduce/lib/*:/usr/local/hadoop3.1.4/share/hadoop/mapreduce/*:/usr/local/hadoop3.1.4/share/hadoop/yarn:/usr/local/hadoop3.1.4/share/hadoop/yarn/lib/*:/usr/local/hadoop-3.1.4/share/hadoop/yarn/*
  84. </value>
  85. </property>
  86. </configuration>

在对yarn-env.sh文件进行配置 vi yarn-env.sh中加入jdk的路径

export JAVA_HOME=/usr/java/jdk1.8.0_281-amd64

在改workers文件删除原来的localhost 添加以下 

  1. slave1
  2. slave2

在进入启动文件 修改开启与退出命令

  

cd /usr/local/hadoop-3.1.4/sbin

对文件进行编辑vi start-dfs.sh 和 stop-dfs.sh 添加或修改以下

  1. HDFS_DATANODE_USER=root
  2. HADOOP_SECURE_DN_USER=hdfs
  3. HDFS_NAMENODE_USER=root
  4. HDFS_SECONDARYNAMENODE_USER=root

对文件进行修改或添加vi start-yarn.sh 和 stop-yarn.sh

  1. YARN_RESOURCEMANAGER_USER=root
  2. HADOOP_SECURE_DN_USER=yarn
  3. YARN_NODEMANAGER_USER=root

 在配置ip映射vi /etc/hosts中配置。注意这个每个节点都需要配置

  1. 192.168.000.130 master
  2. 192.168.000.131 slave1
  3. 192.168.000.132 slave2

将master的配置文件拷贝到slave1与slave2中,拷贝的时候要输入yes与自己的root用户密码

  1. scp -qr /usr/local/hadoop-3.1.4 slave1:/usr/local
  2. scp -qr /usr/local/hadoop-3.1.4 slave2:/usr/local

在 /etc/profile中配置hadoop的路径 vi /etc/profile 然后在进行生效 source /etc/profile。

  1. export JAVA_HOME=/usr/java/jdk1.8.0_281-amd64
  2. export HADOOP_HOME=/usr/local/hadoop-3.1.4
  3. export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

3.配置无密码登录 

使用命令生成密钥,以方便虚拟机之间的切换。输入命令以后要按三次enter键;

ssh-keygen -t rsa

出现以下界面说明成功生成密钥。 

在将生成得密钥复制到三台机器上面去,就可以无障碍切换虚拟机。

  1. ssh-copy-id -i /root/.ssh/id_rsa.pub master
  2. ssh-copy-id -i /root/.ssh/id_rsa.pub slave1
  3. ssh-copy-id -i /root/.ssh/id_rsa.pub slave2

4.配置时间同步服务 

在每个节点都要安装ntp服务用语机器的时间同步。在master节点修改配置vi /etc/ntp.conf 注释掉以 restrict default 开头以及 server 开 头的行,并添加如下内容。

  1. restrict 192.168.0.0 mask 255.255.255.0 nomodify notrap
  2. server 127.127.1.0
  3. fudge 127.127.1.0 stratum 10

同样修改/etc/ntp.conf 文件,注释掉 server 开头的行,并添加如下内容。

server master

5.关闭防火墙与开启ntpf服务 

执行命令【systemctl stop firewalld.service】关闭防火墙和【systemctl disable firewalld.service】永久性关闭防火墙,主节点和从节点都要关闭。 然后在各个 slave 节点上执行命令【ntpdate master】获取同步时间初值。在各个 slave 节点上执行【systemctl start ntpd.service】和【systemctl enable ntpd.service】即可开启并永久启动 NTP 服务。

6.对namenode节点进行格式化 

切记每个集群只需要格式化一次,如果多次格式化可能造成datanode不能启动。注意在启动hadoop的时候要切换到bin目录下面 ,在格式化的时候会提示成功,不成功多半是配置文件出错误。

  1. cd /usr/local/hadoop-3.1.4/bin
  2. ./hdfs namenode -format

在master节点中启动集群,这个是分别启动两个集群。当然也可以自己全部启动./start-all.sh

  1. ./start-dfs.sh
  2. ./start-yarn.sh

在使用jps查看进程有没有启动,因为配置的节点在不同的电脑上面要是更改了配置文件可能这里显示不同。

7.对本地电脑进行映射配置 

在 Windows 下 C:\Windows\System32\drivers\etc\hosts 添加 IP 映射。这里面输入cmd在以管理员运行。这样在web界面才能看到我们搭建的集群。 

  1. 192.168.000.130 master
  2. 192.168.000.131 slave1
  3. 192.168.000.132 slave2

现在可以在web界面看到我们的集群了,hdfs的端口为9870,yarn的端口号为8088

  1. http://master:9870
  2. http://master:8088

 关闭集群的命令与打开类似:

  1. ./stop-yarn.sh
  2. ./stop-dfs.sh

现在我们的第一个集群就搭建好啦!当然在搭建的过程中可能会遇到各种各样的错误,学会看日志会极大的帮助你解决问题。 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/383886
推荐阅读
相关标签
  

闽ICP备14008679号