当前位置:   article > 正文

实验2 - Hadoop集群的部署,安装和管理_hadoop集群的部署,安装和管理

hadoop集群的部署,安装和管理

Hadoop集群模式安装
实验环境
Linux Ubuntu 16.04

实验内容
在Linux系统的服务器上,安装Hadoop3.0.0集群模式。

1.修改hosts文件
查看master ip地址

ifconfig eth0|sed -n '2p'|awk -F " " '{print $2}'|awk -F ":" '{print $2}'
  • 1

记录下显示的ip,例:172.18.0.4

打开slave1 节点,做如上操作,记录下显示的ip,例:172.18.0.3

打开slave2 节点,做如上操作,记录下显示的ip,例:172.18.0.2

编辑/etc/hosts文件

sudo leafpad /etc/hosts
  • 1

添加master IP地址对应本机映射名和其它节点IP地址对应映射名(如下只是样式,请写入实验时您的正确IP):

172.18.0.4 master
172.18.0.3 slave1
172.18.0.2 slave2

2.创建公钥
在dolphin用户下创建公钥:

ssh-keygen -t rsa
  • 1

出现如下内容:

Enter file in which to save the key (/home/dolphin/.ssh/id_rsa):

回车即可,出现如下内容:

Enter passphrase (empty for no passphrase):
直接回车,出现内容:
Enter same passphrase again:
直接回车,创建完成,结果内容如下:

dolphin@master:~$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/dolphin/.ssh/id_rsa):
Created directory '/home/dolphin/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/dolphin/.ssh/id_rsa.
Your public key has been saved in /home/dolphin/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:bpvXc/EXrv3cyXK/1nZbPEmDYQSm/vW4+RGNQWFY7Ss dolphin@tools.hadoop-s.desktop
The key's randomart image is:
+---[RSA 2048]----+
|           o.+=o |
|          o oo  .|
|         .   o.. |
|        .   . ooo|
|        S.   o.+o|
|       .  . .E=++|
|        o  o .oB=|
|       . o. o.*=%|
|        o.   **O%|
+----[SHA256]-----+
dolphin@master:~$
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

3.拷贝公钥
提示:命令执行过程中需要输入“yes”和密码“dolphin”。三台节点请依次执行完成。

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
  • 1
  • 2
  • 3

测试连接是否正常:

ssh master
  • 1

正确结果如下:

Welcome to Ubuntu 16.04.3 LTS (GNU/Linux 4.9.60-linuxkit-aufs x86_64)
 
 * Documentation:  https://help.ubuntu.com
 * Management:     https://landscape.canonical.com
 * Support:        https://ubuntu.com/advantage
  • 1
  • 2
  • 3
  • 4
  • 5

输入exit退出测试

exit
  • 1

同样方法测试slave1和slave2

ssh slave1
  • 1
exit
  • 1
ssh slave2
  • 1
exit
  • 1

4.安装jdk
将/data/hadoop目录下jdk-8u161-linux-x64.tar.gz 解压缩到/opt目录下。

sudo tar -xzvf /data/hadoop/jdk-8u161-linux-x64.tar.gz -C /opt
  • 1

其中,tar -xzvf 对文件进行解压缩,-C 指定解压后,将文件放到/opt目录下。

下面将jdk1.8.0_161目录重命名为java,执行:

sudo mv /opt/jdk1.8.0_161/ /opt/java
  • 1

修改java目录的所属用户和所属组:

sudo chown -R dolphin.dolphin /opt/java
  • 1

5.下面来修改环境变量

sudo leafpad /etc/profile
  • 1

末端添加如下内容:

#java
export JAVA_HOME=/opt/java
export PATH=$JAVA_HOME/bin:$PATH
  • 1
  • 2
  • 3

保存并关闭编辑器

让环境变量生效。

source /etc/profile
  • 1

刷新环境变量后,可以通过java的家目录找到java可使用的命令。 利用java查看版本号命令验证是否安装成功:

java -version
  • 1

正常结果显示如下

java version "1.8.0_161"
Java(TM) SE Runtime Environment (build 1.8.0_161-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.161-b12, mixed mode)
  • 1
  • 2
  • 3

6.安装hadoop
将hadoop-3.0.0.tar.gz解压缩到/opt目录下。

sudo tar -xzvf /data/hadoop/hadoop-3.0.0.tar.gz -C /opt/
  • 1

为了便于操作,我们也将hadoop-3.0.0重命名为hadoop。

sudo mv /opt/hadoop-3.0.0/ /opt/hadoop
  • 1

修改hadoop目录的所属用户和所属组:

sudo chown -R dolphin.dolphin /opt/hadoop
  • 1

7.下面来修改环境变量

sudo leafpad /etc/profile
  • 1

末端添加如下内容:

#hadoop
export HADOOP_HOME=/opt/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
  • 1
  • 2
  • 3

保存并关闭编辑器

让环境变量生效。

source /etc/profile
  • 1

利用hadoop查看版本号命令验证是否安装成功:

hadoop version
  • 1

正常结果显示如下

Hadoop 3.0.0
Source code repository https://git-wip-us.apache.org/repos/asf/hadoop.git -r c25427ceca461ee979d30edd7a4b0f50718e6533
Compiled by andrew on 2017-12-08T19:16Z
Compiled with protoc 2.5.0
From source with checksum 397832cb5529187dc8cd74ad54ff22
This command was run using /opt/hadoop/share/hadoop/common/hadoop-common-3.0.0.jar
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

8.修改hadoop hadoop-env.sh文件配置

sudo leafpad /opt/hadoop/etc/hadoop/hadoop-env.sh
  • 1

末端添加如下内容:

export JAVA_HOME=/opt/java/
  • 1

保存并关闭编辑器

9.修改hadoop core-site.xml文件配置

sudo leafpad  /opt/hadoop/etc/hadoop/core-site.xml
  • 1

添加下面配置到与标签之间。

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
</property>
  • 1
  • 2
  • 3
  • 4

保存并关闭编辑器

10.修改hadoop hdfs-site.xml文件配置

sudo leafpad  /opt/hadoop/etc/hadoop/hdfs-site.xml
  • 1

添加下面配置到

标签之间。

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
  • 1
  • 2
  • 3
  • 4

保存并关闭编辑器

11.修改hadoop yarn-site.xml文件配置

sudo leafpad /opt/hadoop/etc/hadoop/yarn-site.xml
添加下面配置到
  • 1
  • 2


标签之间。

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.env-whitelist</name>
    <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<property>
    <name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage</name>
    <value>95.0</value>
</property>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

保存并关闭编辑器

12.mapred-site.xml文件配置

sudo leafpad /opt/hadoop/etc/hadoop/mapred-site.xml
  • 1

添加下面配置到

标签之间。

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
  • 1
  • 2
  • 3
  • 4

保存并关闭编辑器

13.修改hadoop slaves文件配置

sudo leafpad /opt/hadoop/etc/hadoop/slaves
  • 1

覆盖写入主节点映射名和从节点映射名:

master
slave1
slave2
  • 1
  • 2
  • 3

保存并关闭编辑器

14.拷贝文件到所有从节点

scp -r /opt/java/ /opt/hadoop/ slave1:/tmp/
scp -r /opt/java/ /opt/hadoop/ slave2:/tmp/
  • 1
  • 2

至此,主节点配置完成。

现在,请去slave1和slave2依次完成节点配置。

以下内容在所有从节点配置完成之后回来继续进行!

15.格式化分布式文件系统

hdfs namenode -format
  • 1

16.启动Hadoop

/opt/hadoop/sbin/start-all.sh
  • 1

17.查看Hadoop进程 在hadoop主节点执行

jps
  • 1

输出结果必须包含6个进程,结果如下:

2529 DataNode
2756 SecondaryNameNode
3269 NodeManager
3449 Jps
2986 ResourceManager
2412 NameNode
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在hadoop从节点执行同样的操作:

jps
  • 1

18.在命令行中输入以下代码,打开Hadoop WebUI管理界面

firefox http://master:8088
  • 1

19.测试HDFS集群以及MapReduce任务程序
利用Hadoop自带的WordCount示例程序进行检查集群;在主节点进行如下操作,创建HDFS目录:

hadoop fs -mkdir /dolphin/
hadoop fs -mkdir /dolphin/input
  • 1
  • 2

创建测试文件

sudo leafpad /home/dolphin/test
  • 1

添加下面文字

dolphin
  • 1

保存并关闭编辑器

将测试文件上传到到Hadoop HDFS集群目录:

hadoop fs -put /home/dolphin/test /dolphin/input
  • 1

执行wordcount程序:

hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0.jar wordcount /dolphin/input/ /dolphin/out/
  • 1

查看执行结果:

hadoop fs -ls /dolphin/out/
  • 1

如果列表中结果包含”_SUCCESS“文件,代码集群运行成功。

查看具体的执行结果,可以用如下命令:

hadoop fs -text /dolphin/out/part-r-00000
  • 1

到此,集群安装完成。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/530042
推荐阅读
相关标签
  

闽ICP备14008679号