当前位置:   article > 正文

window10上配置Hadoop_win 10本地配置hadoop

win 10本地配置hadoop

前言

Shell/Hadoop fs/HDFS/dfs的一些相关操作,相当于是在集群内部,跟集群的一些客户端打交道

在这里插入图片描述

本文目标:希望在Windows环境对远程的集群进行一个客户端访问,于是现在就在Windows环境上写代码,写HDFS客户端代码,远程连接上集群,对它们进行增删改查相关操作。

在这里插入图片描述

一、window10安装配置hadoop

想让我们的windows能够连接上远程的Hadoop集群,windows里面也得有相关的环境变量。

下载hadoop3.2.2 windows版到非中文路径(我虚拟机上也是3.2.4,然而windwow版本最新只有3.2.2)

下载hadoop安装包: https://archive.apache.org/dist/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz

下载windows下使用hadoop需要的工具 winutils.exe 和 hadoop.dll: https://github.com/cdarlint/winutils/tree/master/hadoop-3.2.2/bin 选择这两个下载即可:

在这里插入图片描述

把这两个文件放到放入hadoop bin 目录下即可:

在这里插入图片描述

把整个hadoop文件夹移动到D盘。

bin目录加入环境变量:

在这里插入图片描述

在data目录下,创建两目录 namenode,datanode

在这里插入图片描述

进入etc/hadoop目录,修改core-site.xml

  1. <configuration>
  2. <configuration>
  3. <property>
  4. <name>fs.default.name</name>
  5. <value>hdfs://localhost:9000</value>
  6. </property>
  7. <property>
  8. <name>hadoop.tmp.dir</name>
  9. <value>/D://360Downloads//hadoop//data//temp</value>
  10. </property>
  11. </configuration>
  12. </configuration>

修改mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. </configuration>

修改yarn-site.xml

  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3. <property>
  4. <name>yarn.nodemanager.aux-services</name>
  5. <value>mapreduce_shuffle</value>
  6. </property>
  7. <property>
  8. <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
  9. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  10. </property>
  11. </configuration>

修改hdfs-site.xml

  1. <configuration>
  2. <!-- 这个参数设置为1,因为是单机版hadoop -->
  3. <property>
  4. <name>dfs.replication</name>
  5. <value>1</value>
  6. </property>
  7. <property>
  8. <name>dfs.permissions</name>
  9. <value>false</value>
  10. </property>
  11. <property>
  12. <name>dfs.namenode.name.dir</name>
  13. <value>/D://360Downloads//hadoop//data//namenode</value>
  14. </property>
  15. <property>
  16. <name>fs.checkpoint.dir</name>
  17. <value>/D://360Downloads//hadoop//data//snn</value>
  18. </property>
  19. <property>
  20. <name>fs.checkpoint.edits.dir</name>
  21. <value>/D://360Downloads//hadoop//data//snn</value>
  22. </property>
  23. <property>
  24. <name>dfs.datanode.data.dir</name>
  25. <value>/D://360Downloads//hadoop//data//datanode</value>
  26. </property>
  27. </configuration>

把jdk文件放到与hadoop同级的文件夹下面(主要是没有空格就行)

在这里插入图片描述

把jdk配置到环境变量:

在这里插入图片描述

找到hadoop-env.cmd 配置jdk路径

在这里插入图片描述

修改如下:

在这里插入图片描述

查看hadoop是否成功,cmd输入:hadoop

在这里插入图片描述

参考文章:

https://blog.csdn.net/qq_40278285/article/details/113742065

二、启动集群

初始化:

hdfs namenode -format

如下:

在这里插入图片描述

可以看到data下的namenode不是空的了:

在这里插入图片描述

切换到sbin目录下,执行:

start-dfs.cmd

如下:

在这里插入图片描述

Web界面查看HDFS信息,在浏览器输入http://localhost:9870/,可访问NameNode 如下:

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/634445
推荐阅读
相关标签
  

闽ICP备14008679号