赞
踩
Shell/Hadoop fs/HDFS/dfs的一些相关操作,相当于是在集群内部,跟集群的一些客户端打交道
在这里插入图片描述
本文目标:希望在Windows环境对远程的集群进行一个客户端访问,于是现在就在Windows环境上写代码,写HDFS客户端代码,远程连接上集群,对它们进行增删改查相关操作。
在这里插入图片描述
想让我们的windows能够连接上远程的Hadoop集群,windows里面也得有相关的环境变量。
下载hadoop3.2.2 windows版到非中文路径(我虚拟机上也是3.2.4,然而windwow版本最新只有3.2.2)
下载hadoop安装包: https://archive.apache.org/dist/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz
下载windows下使用hadoop需要的工具 winutils.exe 和 hadoop.dll: https://github.com/cdarlint/winutils/tree/master/hadoop-3.2.2/bin 选择这两个下载即可:
在这里插入图片描述
把这两个文件放到放入hadoop bin 目录下即可:
在这里插入图片描述
把整个hadoop文件夹移动到D盘。
bin目录加入环境变量:
在这里插入图片描述
在data目录下,创建两目录 namenode,datanode
在这里插入图片描述
进入etc/hadoop目录,修改core-site.xml
- <configuration>
-
- <configuration>
- <property>
- <name>fs.default.name</name>
- <value>hdfs://localhost:9000</value>
- </property>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/D://360Downloads//hadoop//data//temp</value>
- </property>
- </configuration>
-
- </configuration>
修改mapred-site.xml
- <configuration>
-
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
-
- </configuration>
修改yarn-site.xml
- <configuration>
- <!-- Site specific YARN configuration properties -->
- <property>
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- <property>
- <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
- <value>org.apache.hadoop.mapred.ShuffleHandler</value>
- </property>
-
- </configuration>
修改hdfs-site.xml
- <configuration>
- <!-- 这个参数设置为1,因为是单机版hadoop -->
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- <property>
- <name>dfs.permissions</name>
- <value>false</value>
- </property>
- <property>
- <name>dfs.namenode.name.dir</name>
- <value>/D://360Downloads//hadoop//data//namenode</value>
- </property>
- <property>
- <name>fs.checkpoint.dir</name>
- <value>/D://360Downloads//hadoop//data//snn</value>
- </property>
- <property>
- <name>fs.checkpoint.edits.dir</name>
- <value>/D://360Downloads//hadoop//data//snn</value>
- </property>
- <property>
- <name>dfs.datanode.data.dir</name>
- <value>/D://360Downloads//hadoop//data//datanode</value>
- </property>
- </configuration>
把jdk文件放到与hadoop同级的文件夹下面(主要是没有空格就行)
在这里插入图片描述
把jdk配置到环境变量:
在这里插入图片描述
找到hadoop-env.cmd 配置jdk路径
在这里插入图片描述
修改如下:
在这里插入图片描述
查看hadoop是否成功,cmd输入:hadoop
在这里插入图片描述
参考文章:
https://blog.csdn.net/qq_40278285/article/details/113742065
初始化:
hdfs namenode -format
如下:
在这里插入图片描述
可以看到data下的namenode不是空的了:
在这里插入图片描述
切换到sbin目录下,执行:
start-dfs.cmd
如下:
在这里插入图片描述
Web界面查看HDFS信息,在浏览器输入http://localhost:9870/,可访问NameNode 如下:
在这里插入图片描述
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。