当前位置:   article > 正文

linux安装hadoop详细步骤_linux 安装hadoop

linux 安装hadoop

以下是在Linux系统上安装Hadoop的详细步骤:

  1. 下载Hadoop文件
    在Hadoop官方网站上下载最新的稳定版本的Hadoop文件。下载地址:https://hadoop.apache.org/releases.html

  2. 解压Hadoop文件
    打开终端,使用以下命令将下载的Hadoop文件解压到指定目录:

    tar -xzvf hadoop-X.X.X.tar.gz -C /usr/local/
    
    • 1
  3. 配置环境变量
    打开终端,使用以下命令打开配置文件:

    sudo nano ~/.bashrc
    
    • 1

    在配置文件里添加以下内容:

    # Hadoop相关路径配置
    export HADOOP_HOME=/usr/local/hadoop-X.X.X
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    保存并关闭配置文件,然后运行以下命令使配置生效:

    source ~/.bashrc
    
    • 1
  4. 配置Hadoop
    进入Hadoop安装目录,并编辑配置文件:

    cd /usr/local/hadoop-X.X.X/etc/hadoop/
    sudo nano hadoop-env.sh
    
    • 1
    • 2

    将以下代码行:

    export JAVA_HOME=${JAVA_HOME}
    
    • 1

    修改为:

    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
    
    • 1

    保存并关闭文件。

  5. 配置Hadoop集群
    打开core-site.xml文件:

    sudo nano core-site.xml
    
    • 1

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-X.X.X/tmp</value>
    </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    保存并关闭文件。

  6. 配置HDFS
    打开hdfs-site.xml文件:

    sudo nano hdfs-site.xml
    
    • 1

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/namenode</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/usr/local/hadoop-X.X.X/hadoop_data/hdfs/datanode</value>
    </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    保存并关闭文件。

  7. 配置YARN
    打开yarn-site.xml文件:

    sudo nano yarn-site.xml
    
    • 1

    在<configuration>和</configuration>之间添加以下内容:

    <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
    <property>
      <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>localhost</value>
    </property>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    保存并关闭文件。

  8. 格式化Hadoop文件系统
    运行以下命令:

    hdfs namenode -format
    
    • 1
  9. 启动Hadoop集群
    运行以下命令:

    start-dfs.sh
    start-yarn.sh
    
    • 1
    • 2

    您可以使用以下命令检查Hadoop是否成功启动:

    jps
    
    • 1

    如果一切正常,应该能够看到NameNode、DataNode、ResourceManager和NodeManager等进程。

现在,Hadoop已经成功安装在您的Linux系统上。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/516878
推荐阅读
相关标签
  

闽ICP备14008679号