当前位置:   article > 正文

hadoop安装与配置详细教程【Windows下】(亲测有效)_windows下配置单机hadoop环境

windows下配置单机hadoop环境

Windows下安装hadoop详细教程

目录

Windows下安装hadoop详细教程

一、配置Java环境

二、下载Hadoop以及winutils压缩包

三、解压Hadoop安装包

四、配置Hadoop环境

五、替换bin文件夹

 六、验证Hadoop环境是否配置成功

七、配置hadoop中的文件 

八、启动Hadoop

九、访问namenode页面、resourcemanager的页面来观察集群是否正常


温馨提示:后面需要配置很多文件,如果害怕出错,可以建跟我一样的文件夹,这样也方便后续配置Hadoop、spark等环境。

Java环境配置详细看我的这篇:eclipse的安装与配置详细教程【Java环境配置】

一、配置Java环境

1.新建文件夹命名为JDK,双击安装jdk进入安装界面,点击下一步。

2.如下图所示,点击更改安装目录选择安装到 D:LeStoreDownload\Java\jdk (选用前面新建名为jdk的文件夹,如果你想要放到其他位置,请记住自定义的路径,后面要用),点击下一步。

3.弹出状态进度界面如下,稍等片刻,等待跳出Java安装界面如下(注意与前面的jdk不同这里是安装Java),点击更改安装目录选择安装到D:\LeStoreDownload\Java\ java(前面新建的名为java的文件夹),点击下一步。

4.等待进度条进行到底,点击关闭。

5.配置环境变量

JDK安装完成,还需要配置环境变量,在Windows系统中配置环境变量的步骤如下:

(1)在“此电脑”图标上右击,选择“属性”,点击“高级系统设置”,点击“环境变量”

(2)在“环境变量”对话框中,点击系统变量中的“新建”按钮,输入如下变量名及变量值,点击确定,创建新的系统环境变量JAVA_HOME,设置变量值D:\LeStoreDownload\JAVA\JDK(注意:该变量值为jdk的安装目录)

87645da3f2d1414dbe3f4f6b099c4611.png

5571233082104ec6871ac9cccd2481c7.png

(3)找到系统变量中的“Path”,选中它,点击“编辑”,然后“新建”两栏属性,内容如下图所示。最后点击“确定”

594e7555650c4e62894aff5243e74e3f.png

368fe581f0fb449b9313a58b1f42047f.png

(4)回到“环境变量”界面,新建一个“系统变量”命名“CLASSPATH”设置变量值:

.;%JAVA_HOME%\lib;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar

点击“确定”。

dedc16263b484fdeae6a2db383541964.png

(5)最后在“环境变量”对话框也点击“确定”按钮,至此环境变量配置完成。

(6)验证jdk安装是否成功,“win+r”快捷键打开搜索框,输入“cmd”回车启动控制台。在控制台分别输入java、javac、java -version(注意java与-之间有空格)出现以下三界面,则说明安装成功。

二、下载Hadoop以及winutils压缩包

我下载的是3.2.0版本,因为后面需要替换\bin目录,版本过高找不到替换版本,如果你后续需要下载spark,建议你版本对应。

Hadoop网址:https://archive.apache.org/dist/hadoop/common/hadoop-3.2.0/

其他版本我没试过,如果你想安装其他版本,可以试试

winutils网址:https://github.com/cdarlint/winutils/tree/master/hadoop-3.2.0/bin

github我电脑打不开,但是在机房能打开,所以我下载的有各个版本的winutils,如果需要评论区留言,我放网盘链接。

三、解压Hadoop安装

解压你下载的3.2.0压缩包,路径自定义,但是:路径中不要有空格

注意:因为我这是已经下载好的,你解压之后文件夹没有这么多

四、配置Hadoop环境

1.在“此电脑”图标上右击,选择“属性”,点击“高级系统设置”,点击“环境变量”

2.在“环境变量”对话框中,点击系统变量中的“新建”按钮,输入如下变量名及变量值,点击确定,创建新的系统环境变量HADOOP_HOME,设置变量值D:\LeStoreDownload\hadoop\hadoop-3.2.0

3. 找到系统变量中的“Path”,选中它,点击“编辑”,然后“新建”两栏属性,内容如下图所示。最后点击“确定”

五、替换bin文件夹

将winutils-master.zip解压,发现里面就一个bin文件夹,拖到"D:\LeStoreDownload\spark-3.1.2"下(当然你的路径可能跟我的不一样),进行替换同名文件夹

 六、验证Hadoop环境是否配置成功

WIN+R打开命令提示符,输入一下命令(有个空格),出现下图为成功

hadoop version

七、配置hadoop中的文件 

1.首先新建文件夹data,在data下新建datanode、namenode、tmp三个空文件夹

2.配置 "D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\core-site.xml"文件【etc下的文件】,可以直接全覆盖,也可以追加到末尾

  1. <configuration>
  2. <property>
  3. <name>hadoop.tmp.dir</name>
  4. <value>/D:\LeStoreDownload\hadoop\hadoop-3.2.0\data\tmp</value>
  5. </property>
  6. <property>
  7. <name>fs.defaultFS</name>
  8. <value>hdfs://localhost:9000</value>
  9. </property>
  10. </configuration>

注意了: 路径问题,一定要改成你自己的路径,如果你不想改动,你可以文件名给我相同,如下图,一定要是自己的路径,把我的改一下!!!

3.配置 "D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\mapred-site.xml" 文件【etc下的文件】,可以直接全覆盖,也可以追加到末尾

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapred.job.tracker</name>
  8. <value>hdfs://localhost:9001</value>
  9. </property>
  10. </configuration>

4.配置"D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\yarn-site.xml"文件,【etc下的文件】,可以直接全覆盖,也可以追加到末尾

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  8. <value>org.apache.hahoop.mapred.ShuffleHandler</value>
  9. </property>
  10. </configuration>

5.配置 "D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\hdfs-site.xml"文件,【etc下的文件】,可以直接全覆盖,也可以追加到末尾

  1. <configuration>
  2. <!-- 这个参数设置为1,因为是单机版hadoop -->
  3. <property>
  4. <name>dfs.replication</name>
  5. <value>1</value>
  6. </property>
  7. <property>
  8. <name>dfs.namenode.name.dir</name>
  9. <value>/D:\LeStoreDownload\hadoop\hadoop-3.2.0\data\namenode</value>
  10. </property>
  11. <property>
  12. <name>dfs.datanode.data.dir</name>
  13. <value>/D:\LeStoreDownload\hadoop\hadoop-3.2.0\data\datanode</value>
  14. </property>
  15. </configuration>

 再说一次: 路径问题,一定要改成你自己的路径,如果你不想改动,你可以文件名给我相同,如下图,一定要是自己的路径,把我的改一下!!!

6.配置 "D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\hadoop-env.sh"文件,【etc下的文件】,使用Ctrl+F查找export JAVA_HOME,找到相应的位置,配置下如图:

等于号后面的是你的JAVA_HOME的变量值

7.配置 "D:\LeStoreDownload\hadoop\hadoop-3.2.0\etc\hadoop\hadoop-env.cmd"文件,【etc下的文件】,使用Ctrl+F查找export JAVA_HOME,找到相应的位置,配置下如图:

注意:可能你的.cmd文件无法打开,这里我把后缀改成了txt进行编辑然后再改为.cmd,而且可能你的文件中是如下内容:

这里也要进行修改,跟我的保持一致

八、启动Hadoop

1.使用WIN+R进入输入cmd命令提示符,切换到"D:\LeStoreDownload\hadoop\hadoop-3.2.0\bin",如何切换?【不能只懂linux中的命令】,如下图:

2.格式化namenode,命令:

hdfs namenode -format

出现类似下图说明成功

3.切换到"D:\LeStoreDownload\hadoop\hadoop-3.2.0\sbin"开启yarn,命令

start-yarn.cmd

这时会跳出两个窗口,不要关闭!!!出现类似下图说明成功

4. 切换到"D:\LeStoreDownload\hadoop\hadoop-3.2.0\sbin"开启yarn,命令

start-dfs.cmd

 这时会跳出两个窗口,不要关闭!!!出现类似下图说明成功

 5..输入jps查看进程,出现下图为成功【这些必须有】

九、访问namenode页面、resourcemanager的页面来观察集群是否正常

如下图:

http://localhost:9870/dfshealth.html#tab-overview

http://localhost:8088/cluster

最后,关闭hadoop服务,直接×掉 

至此,Windows下的Hadoop搭建成功。按照步骤来应该不会出错!!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/429220
推荐阅读
相关标签
  

闽ICP备14008679号