当前位置:   article > 正文

hadoop windows安装_hadoop win 安装

hadoop win 安装

 jdk 安装

注意,jdk的安装目录一定不要带空格。如果带了空格,在后面的hadoop,spark安装时会导致他们不识别jdk环境。出现错误。当然,是否带空格对javac,java -version 这类命令没有影响。

如果已经安装完成并且已经带了空格,那么

  1. C:\Program Files\Java\jdk1.8.0_121
  2. 变成
  3. C:\Progra~1\Java\jdk1.8.0_121

重开cmd,能够看见启动完成

 

hadoop 安装

hadoop 所有版本

1.选择你想要安装的版本,下载,当然这下载速度可不要说太慢。建议用迅雷或者去找找别的资源。

2.下载hadoop在windows 环境运行所需要的工具。在git上。https://github.com/steveloughran/winutils

当然在git上下载也不要太折磨人。建议选择码云。https://blog.csdn.net/a1439775520/article/details/105155813/

这篇博客详细写了如何使用码云下载git代码。当然,如果你网速够好,当我没说。

把工具中的bin目录替换haoop中的bin目录。 并且找到hadoop.dll 放到C:\Windows\System32 下面。

3.把hadoop的bin目录地址加入环境变量。

在path中加入

4.修改etc\haoop下的配置文件

  1. 1.core-site.xml
  2. <configuration>
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://localhost:9000</value>
  6. </property>
  7. </configuration>
  8. 2.hdfs-site.xml namenode 与datanode目录会自动创建
  9. <configuration>
  10. <property>
  11. <name>dfs.replication</name>
  12. <value>1</value>
  13. </property>
  14. <property>
  15. <name>dfs.namenode.name.dir</name>
  16. <value>file:/hadoop/data/dfs/namenode</value>
  17. </property>
  18. <property>
  19. <name>dfs.datanode.data.dir</name>
  20. <value>file:/hadoop/data/dfs/datanode</value>
  21. </property>
  22. </configuration>
  23. 3.mapred-site.xml.template 变成 mapred-site.xml
  24. <configuration>
  25. <property>
  26. <name>mapreduce.framework.name</name>
  27. <value>yarn</value>
  28. </property>
  29. </configuration>
  30. 4.yarn-site.xml
  31. <configuration>
  32. <property>
  33. <name>yarn.nodemanager.aux-services</name>
  34. <value>mapreduce_shuffle</value>
  35. </property>
  36. <property>
  37. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  38. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  39. </property>
  40. </configuration>
  41. 5.hadoop-env.cmd
  42. set JAVA_HOME=C:\Progra~1\Java\jdk1.8.0_121

5.  进入bin目录执行 hadoop namenode -format

6. 进入sbin,执行start-all.cmd

7.进入http://localhost:50070/ 查看

8.在sbin 目录下执行 stop-all.cmd

Spark 安装

https://www.cnblogs.com/chevin/p/11064854.html

看起来写的比我好,坑了。有缘再写 。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/980040
推荐阅读
相关标签
  

闽ICP备14008679号