当前位置:   article > 正文

hadoop安装和配置

mapred需要配置java路径吗

本文hadoop的版本为hadoop-2.2.0

一、安装java jdk

   1、下载java jdk1.7版本,放在/home/software目录下,

   2解压:tar -zxvf java-jdk*****.jar

   3、vim /etc/profile

  1. #在文件最后添加
  2. export JAVA_HOME=/home/software/jdk1.7
  3. export PATH=$PATH:$JAVA_HOME/bin
  4. #刷新配置
  5. source /etc/profile

  4、检测是否成功安装:java -version

二、安装hadoop

1、在linux根路径创建目录cloud:sudo mkdir cloud

2、解压hadoop到cloud目录中:tar -zxvf hadoop-2.2.0.tar.gz -C /cloud/

3、进入目录:/cloud/hadoop/etc/hadoop

三、修改配置文件

1、修改hadoop-env.sh,配置java jdk路径,大概在27行配置,如下:

export JAVA_HOME=/home/software/jdk1.7

2、修改core-site.xml,配置内容如下

  1. <configuration>
  2. <!-- 指定HDFS老大(namenode)的通信地址 -->
  3. <property>
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://locahost:9000</value>
  6. </property>
  7. <!-- 指定hadoop运行时产生文件的存储路径 -->
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/cloud/hadoop/tmp</value>
  11. </property>
  12. </configuration>

3、修改hdfs-site.xml,修改配置如下

  1. <!-- 设置hdfs副本数量 -->
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>

4、修改mapred-site.xml 由于在配置文件目录下没有,需要修改名称:mv mapred-site.xml.template mapred-site.xml

<configuration>
<!-- 通知框架MR使用YARN -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
</configuration>

5、修改yarn-site.xml,修改内容如下

  1. <configuration>
  2. <!-- reducer取数据的方式是mapreduce_shuffle -->
  3. <property>
  4. <name>yarn.nodemanager.aux-services</name>
  5. <value>mapreduce_shuffle</value>
  6. </property>
  7. <property>
  8. <name>yarn.resourcemanager.hostname</name>
  9. <value>localhost</value>
  10. </property>
  11. </configuration>

6、讲hadoop添加到环境变量,然后更新一下环境变量:source /etc/profile

export JAVA_HOME=//home/software/jdk1.7
export HADOOP_HOME=/cloud/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

四、启动hadoop

1、格式化hadoop,进入目录:/cloud/hadoop/etc/hadoo,执行下列之一命令即可

hadoop namenode -format  (过时)

hdfs namenode -format

2、启动hdfs和yarn

先启动HDFS
sbin/start-dfs.sh

再启动YARN
sbin/start-yarn.sh

3、验证是否成功,使用命令:jps,输出如下即表示配置成功。

  1. 12272 Jps
  2. 4135 JobTracker
  3. 9500 SecondaryNameNode
  4. 9943 NodeManager
  5. 9664 ResourceManager
  6. 8898 NameNode
  7. 9174 DataNode

4、可以在浏览器中查看hdfs和mr的状态.hdfs管理界面:http://localhost:50070  MR的管理界面:http://localhost:8088 

五、hdfs基本操作和wordcount程序

 1、进入hadoop安装目录中的share:/cloud/hadoop/share/hadoop/mapreduce

2、ls列出当前路径下的文件,内容如下,其中带有example字样的为样例程序

  1. hadoop-mapreduce-client-app-2.2.0.jar
  2. hadoop-mapreduce-client-common-2.2.0.jar
  3. hadoop-mapreduce-client-core-2.2.0.jar
  4. hadoop-mapreduce-client-hs-2.2.0.jar
  5. hadoop-mapreduce-client-hs-plugins-2.2.0.jar
  6. hadoop-mapreduce-client-jobclient-2.2.0.jar
  7. hadoop-mapreduce-client-jobclient-2.2.0-tests.jar
  8. hadoop-mapreduce-client-shuffle-2.2.0.jar
  9. hadoop-mapreduce-examples-2.2.0.jar
  10. lib
  11. lib-examples
  12. sources

 3、新建words文件,内容输入如下,然后使用命令上传到hdfs目录下:hadoop fs -put words hdfs://localhost:9000/words

  1. hello tom
  2. hello kitty
  3. hello world
  4. hello tom

4、在命令行中敲入:hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount hdfs://localhost:9000/wordshdfs://localhost:9000/out

5、打开页面:http://localhost:50070/dfshealth.jsp

 

6、点击上图中的Browse the filesystem,跳转到文件系统界面,如下所示:

7、继续点击上图的out/part-r-00000,wordcount程序最终运行的结果如图所示:

 

转载于:https://www.cnblogs.com/gyouxu/p/4183417.html

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/519012
推荐阅读
相关标签
  

闽ICP备14008679号