赞
踩
Windows下安装Hadoop(引导版)
本环境只作为测试环境的搭建和学习使用
环境:
首先确定环境为java1.8 或者hadoop适配的版本
cmd java -version查看
hadoop环境变量可以不用设置
关于hdfs的配置可以自行修改目录
具体的安装方式参考下面的两个文档
下载软件包
Hadoop3.1.0版本的安装包:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-3.1.0.tar.gz
Windows环境安装所需的bin文件包(我们这里选择3.1.0):
1、可以打开地址:https://gitee.com/nkuhyx/winutils ,里面选 3.1.0。
2、或者直接下载:https://gitee.com/tttzzzqqq/apache-hadoop-3.1.0-winutils
原文链接:https://blog.csdn.net/tttzzzqqq2018/article/details/131928028
注意在替换bin文件时 选择重复的文件跳过
hadoop软件包的解压方式
start winrar x -y hadoop-3.3.2.tar.gz ./
参考链接:
https://blog.csdn.net/Helen_1997_1997/article/details/136627713
文件目录在hadoop etc下
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<!-- 这个参数设置为1,因为是单机版hadoop -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/D:/develop/hadoop/hadoop-3.1.0/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>D:/develop/hadoop/hadoop-3.1.0/data/datanode</value>
</property>
</configuration>
yarn-site.xml
注意:yarn的资源可以小一点 发现过大的资源分配启动的话 yarn页面访问不到
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hahoop.mapred.ShuffleHandler</value> </property> <!-- 指定ResourceManager的地址--> <!--property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property--> <!-- 环境变量的继承 --> <property> <name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> </property> <!-- yarn容器允许分配的最大最小内存 --> <property> <name>yarn.scheduler.minimum-allocation-mb</name> <value>512</value> </property> <property> <name>yarn.scheduler.maximum-allocation-mb</name> <value>4096</value> </property> <!-- yarn容器允许管理的物理内存大小 标配12G--> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>4096</value> </property> <!--启用自动检测cpu核数--> <!--YARN可使用的虚拟CPU个数,默认是8 此参数配合自动检测--> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>4</value> </property> <!--单个任务可申请的最小虚拟CPU个数,默认是1--> <property> <name>yarn.scheduler.minimum-allocation-vcores</name> <value>1</value> </property> <!--资源设定参数对于开启动态资源分配的设定无效--> <!--单个任务可申请的最多虚拟CPU个数,默认是4) 指定为8核心--> <property> <name>yarn.scheduler.maximum-allocation-vcores</name> <value>4</value> </property> <!-- 关闭yarn对物理内存和虚拟内存的限制检查 --> <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> <!-- 开启日志聚集功能 --> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <!-- 设置日志保留时间为7天 --> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>604800</value> </property> </configuration>
mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
</property>
</configuration>
workers
localhost
hadoop-env.cmd
@rem The java implementation to use. Required.
set JAVA_HOME=D:\develop\java\jdk1.8.0_202
hadoop-env.sh
export JAVA_HOME=D:\develop\java\jdk1.8.0_202
使用jps
hdfs页面
yarn页面
Exception in thread “main” java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
启动不了nameNode,解决方法:
在hadoop文件夹\hadoop-3.0.2\etc\hadoop\core-site.xml的标签下,添加如下内容
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
原文链接:https://blog.csdn.net/qq_37475168/article/details/90749924
有时候启动或者初始化元数据 会出现目录无法识别的状况
可以把D前面的/删除试一试
要查看报错内容
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。