当前位置:   article > 正文

Linux安装Hadoop的详细过程_linux安装hadoop教程

linux安装hadoop教程

在上一篇文章中有讲到Linux安装JDK的过程,这篇文章讲述的是Linux安装Hadoop的过程。

一、Hadoop的下载与解压缩

我用的Hadoop是3.3.4版本,亲测有效。 

链接:https://pan.baidu.com/s/1bSruEEkUaRZDz43mj0xMwg?pwd=scez 

  •  提取出来后,可以放在U盘里,从U盘里导入到虚拟机中。(导入的过程中,需要注意一个问题:如果自己的U盘是3.0接口的话,需要把虚拟机的USB兼容性改变成3.0或者3.1的,把“显示所有USB输入设备”勾选上,再重新启动虚拟机即可。)这个问题在上一篇的“Linux安装JDK的过程”中有说到过,如果想了解,可以去看一下。
  • 解压缩Hadoop文件至“opt”文件夹中: 

 二、修改Hadoop配置文件 

  1. 修改bashrc文件:“etc——bashrc”
    1. #hadoop_config
    2. export HADOOP_HOME=/opt/hadoop-3.3.4
    3. export PATH=$PATH:$HADOOP_HOME/bin

     修改完成后,记得保存关闭,在终端敲入生效命令:source /etc/bashrc

    注:下面修改的6个文件的文件路径是:opt/hadoop-3.3.4/etc/hadoop。

     

  2. 修改hadoop-env.sh文件:

    export JAVA_HOME=/opt/jdk1.8.0_261
    1. export HDFS_NAMENODE_USER="root"
    2. export HDFS_DATANODE_USER="root"
    3. export HDFS_SECONDARYNAMENODE_USER="root"
    4. export YARN_RESOURCEMANAGER_USER="root"
    5. export YARN_NODEMANAGER_USER="root"
    6. export HADOOP_HOME=/opt/hadoop-3.3.4
    7. export PATH=$PATH:/opt/hadoop-3.3.4/bin
    8. export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"
    9. export HADOOP_PID_DIR=/opt/hadoop-3.3.4/pids

    第一行的代码片段是“#export JAVA_HOME=”的修改内容;

    第二行的代码片段是在该文件的最后添加的内容

    修改完成后,记得保存关闭。

  3. 修改core-site.xml文件:使用“文本编辑器”打开,如果右击没有出现“文本编辑器”,则可以选择“使用其他程序打开”,打开之后,选“文本编辑器”。

    1. <configuration>
    2. <property>
    3. <name>fs.defaultFS</name>
    4. <value>hdfs://master:9000</value>
    5. </property>
    6. <property>
    7. <!-- Hadoop 数据存放的路径,namenode,datanode 数据存放路径都依赖本路径,不要使用 file:/ 开头,使用绝对路径即可
    8. namenode 默认存放路径 :file://${hadoop.tmp.dir}/dfs/name
    9. datanode 默认存放路径 :file://${hadoop.tmp.dir}/dfs/data
    10. -->
    11. <name>hadoop.tmp.dir</name>
    12. <value>/opt/hadoop-3.3.4/hadoopdata</value>
    13. </property>
    14. </configuration>

     修改完成后,记得保存关闭。

  4. 在“opt/hadoop-3.3.4”文件夹创建一个“hadoopdata”文件夹:

  5. 修改hdfs-site.xml文件:使用“文本编辑器打开”,填入以下内容。
    1. <configuration>
    2. <property>
    3. <name>dfs.namenode.http-address</name>
    4. <!-- Master为当前机器名或者IP地址 -->
    5. <value>master:9001</value>
    6. </property>
    7. <property>
    8. <name>dfs.namenode.name.dir</name>
    9. <!-- 以下为存放节点命名的路径 -->
    10. <value>file:/opt/hadoop-3.3.4/hadoopdata/dfs/name</value>
    11. </property>
    12. <property>
    13. <name>dfs.datanode.data.dir</name>
    14. <!-- 以下为存放数据命名的路径 -->
    15. <value>file:/opt/hadoop-3.3.4/hadoopdata/dfs/data</value>
    16. </property>
    17. <property>
    18. <name>dfs.replication</name>
    19. <!-- 备份次数,因为有2台DataNode-->
    20. <value>2</value>
    21. </property>
    22. <property>
    23. <name>dfs.webhdfs.enabled</name>
    24. <!-- Web HDFS-->
    25. <value>true</value>
    26. </property>
    27. <property>
    28. <name>dfs.permissions</name>
    29. <value>false</value>
    30. </property>
    31. <property>
    32. <name>dfs.namenode.secondary.http-address</name>
    33. <value>Master:50090</value>
    34. </property>
    35. </configuration>

     修改完成后,记得保存关闭。

  6. 修改mapred-site.xml文件:使用“文本编辑器打开
    1. <configuration>
    2. <property>
    3. <name>mapreduce.framework.name</name>
    4. <!-- MapReduce Framework -->
    5. <value>yarn</value>
    6. </property>
    7. <property>
    8. <name>mapreduce.jobhistory.address</name>
    9. <!-- MapReduce JobHistory, 当前计算机的IP -->
    10. <value>master:10020</value>
    11. </property>
    12. <property>
    13. <name>mapreduce.jobhistory.webapp.address</name>
    14. <!-- MapReduce Web App JobHistory, 当前计算机的IP -->
    15. <value>master:19888</value>
    16. </property>
    17. <property>
    18. <name>yarn.app.mapreduce.am.env</name>
    19. <value>HADOOP_MAPRED_HOME=/opt/hadoop-3.3.4</value>
    20. </property>
    21. <property>
    22. <name>mapreduce.map.env</name>
    23. <value>HADOOP_MAPRED_HOME=/opt/hadoop-3.3.4</value>
    24. </property>
    25. <property>
    26. <name>mapreduce.reduce.env</name>
    27. <value>HADOOP_MAPRED_HOME=/opt/hadoop-3.3.4</value>
    28. </property>
    29. </configuration>

    修改完成后,记得保存关闭。

  7. 修改yarn-site.xml文件:使用“文本编辑器打开
    1. <configuration>
    2. <!-- Site specific YARN configuration properties -->
    3. <property>
    4. <name>yarn.resourcemanager.hostname</name>
    5. <!-- Master为当前机器名或者ip号 -->
    6. <value>master</value>
    7. </property>
    8. <property>
    9. <name>yarn.nodemanager.aux-services</name>
    10. <!-- Node Manager辅助服务 -->
    11. <value>mapreduce_shuffle</value>
    12. </property>
    13. <property>
    14. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    15. <!-- Node Manager辅助服务类 -->
    16. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    17. </property>
    18. <property>
    19. <name>yarn.nodemanager.resource.cpu-vcores</name>
    20. <!-- CPU个数,需要根据当前计算机的CPU设置-->
    21. <value>1</value>
    22. </property>
    23. <property>
    24. <name>yarn.resourcemanager.admin.address</name>
    25. <!-- Resource Manager管理地址 -->
    26. <value>master:8033</value>
    27. </property>
    28. <property>
    29. <name>yarn.resourcemanager.webapp.address</name>
    30. <!-- Resource Manager Web地址 -->
    31. <value>master:8088</value>
    32. </property>
    33. </configuration>

     修改完成后,记得保存关闭。

  8. 修改workers文件:双击打开后,填入以下内容,
    1. master
    2. slave0
    3. slave1

     修改完成后,记得保存关闭。

 三、master远程发送文件给slave0和slave1,并对其中的bashrc文件进行修改

  • 进入opt文件:cd /opt

  •  使用远程发送命令把jdk8与hadoop-3.3.4发送到slave0与slave1机器上:

  •  master远程控制slave0(slave1),对其bashrc文件进行修改并生效:

退出vim界面的命令是:“: wq” 

 这是master对slave0的远程操控,master对slave1也是同样的方法。

最后要生效bashrc文件

 

生效完成后,在终端敲入“exit”,退出slave0(slave1)

  • 以上步骤结束后,保存并关闭所有文件,对Hadoop进行格式化
hdfs namenode -format

  •  格式化完成后,就可以启动集群了:

使用“cd”命令进入到sbin文件夹中。

cd /opt/hadoop-3.3.4/sbin/

集群启动命令:

./start-all.sh

  •  第一次使用启动集群,会有6个warning出现,可以不用管(它们是说有几个文件不存在,但是这几个文件,系统会自动创建)。
  • 集群启动成功后:master会出现6个结果(namenode,jps,resourcemanager,secondarynamenode,datanode,nodemanager);slave0与slave1会出现3个结果(datanode,jps,nodemanager)。
  •  关闭集群:前提是在sbin目录下
./stop-all.sh

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/516872
推荐阅读
相关标签
  

闽ICP备14008679号