当前位置:   article > 正文

hadoop3.0运行java_Hadoop3.0 安装配置

hadoop3不需要给yarn-env.sh配java

1. 官网下载

wget  http://apache.fayea.com/Hadoop/common/hadoop-3.0.0-alpha1/hadoop-3.0.0-alpha1.tar.gz

2. 解压

tar -zxvf hadoop-3.0.0-alpha1.tar.gz

ln -s hadoop-3.0.0-alpha1 hadoop3

3. 环境变量

vi /etc/profile

#Hadoop 3.0

export HADOOP_HOME=/usr/local/hadoop3

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

注意:/usr/local/hadoop3为解压路径

4. 配置文件 hadoop3/etc/hadoop

1) hadoop-env.sh

注意: /usr/java/jdk1.8为jdk安装路径

2)core-site.xml

注意:hdfs://ha01:9000 中ha01是主机名

3) hdfs-site.xml

4) yarn-site.xml

注意:ha01是主机名

5) mapred-site.xml

注意:如果不配置mapreduce.admin.user.env 和 yarn.app.mapreduce.am.env这两个参数mapreduce运行时有可能报错。

6)workers

这里跟以前的slaves配置文件类似,写上从节点的主机名

5. 复制到其他节点

scp -r hadoop-3.0.0-alpha1 root@ha02:/usr/local

scp -r hadoop-3.0.0-alpha1 root@ha03:/usr/local

6. 启动

start-dfs.sh

start-yarn.sh

hdfs dfs -ls /

7. 运行wordcount

hdfs dfs -cat /logs/wordcount.log

hadoop jar /usr/local/hadoop3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha1.jar wordcount /logs/wordcount.log /output/wordcount

注意: /usr/local/hadoop3是解压路径,/logs/wordcount.log是输入文件路径,/output/wordcount运行结果路径

查看运行结果: hdfs dfs -text /output/wordcount/part-r-00000

8. Web界面

http://ha01:9870/

http://ha01:8088/

下面关于Hadoop的文章您也可能喜欢,不妨看看:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/740533
推荐阅读
相关标签
  

闽ICP备14008679号