当前位置:   article > 正文

Hadoop学习笔记(1)——单机版搭建_hadoop2.8单机部署

hadoop2.8单机部署

Hadoop是一个分布式计算框架,适用于离线海量信息批处理大文件日志分析等,可以在大量廉价硬件设备组成的集群上运行应用程序,并未应用程序提供一组稳定可靠的接口,旨在构建一个具有高可靠性和良好扩展性的分布式系统。Hadoop的核心是HDFS(Hadoop Distributed File System),Mapreduce和Hbase,他们分别是Google云计算核心技术GFSMapreduceBigtable的开源实现,这三篇论文可以看之前的三篇博客,加深一下理论基础。

一、1.1硬件准备

单机版的搭建要求不高,内存有个4G都够用了。本人电脑配置(16G是为集群版准备的,到时候还要开idea写代码,加上开VMware等软件,差不多够用。):

 1.2软件准备

centos 6.5 64位节点一个,Hadoop-2.8.4.tar.gz(64位), jdk-xxxx-x64.tar.gz

 这个配置好了java_home。具体的配置之前的博客里有,网上搜也有一大堆,就是1、解压JDK的tar包;2、在/etc/profile里最末尾添加三行配置记录就行了;3、用source   /etc/profile,使配置生效。 4、使用java --version检查是否配置成功。

 二、安装单节点的Hadoop

2.1 解压Hadoop安装包 

   tar -zxvf hadoop-2.8.4.tar.gz -C  /usr/local/app

2.2 修改配置文件

一共要修改5个文件,分别为 mapred-site.xml 、core-site.xml 、hdfs-site.xml 、yarn-site.xml  、slaves

2.2.1 mapred-site.xml  可能没有,但是有一个模板文件(执行命令:cp mapred-site.xml.template mapred-site.xml)

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. </configuration>

2.2.2  core-site.xml           sigle是我的主机名,我在/etc/hosts里做了映射,这里可以换成本机ip或127.0.0.1

  1. <configuration>
  2. <property>
  3. <name>fs.default.name</name>
  4. <value>hdfs://single:8020</value>
  5. </property>
  6. </configuration>

2.2.3  hdfs-site.xml    指定副本数、namenode和datanode的存储位置

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>/home/hadoop/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>/home/hadoop/dfs/data</value>
  13. </property>
  14. </configuration>

2.2.4 yarn-site.xml 

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. </configuration>

2.2.5 slaves 这个是写datanode的ip地址的,由于是单节点的,所以写本机就行了

localhost

三、启动Hadoop

3.1格式化元数据 (执行完后,去hdfs-site.xml 文件指定的目录位置,看看是否有文件生成)

  1. [root@single hadoop-2.8.4]# ls
  2. bin etc include lib libexec LICENSE.txt NOTICE.txt README.txt sbin share
  3. [root@single hadoop-2.8.4]# ./bin/hadoop namenode -format

 

 3.2 启动namenode(可以使用jps命令,或者查看./logs目录下的日志文件--无异常信息)

  1. [root@single hadoop-2.8.4]# ls
  2. bin etc include lib libexec LICENSE.txt NOTICE.txt README.txt sbin share
  3. [root@single hadoop-2.8.4]# ./sbin/hadoop-daemon.sh start namenode

 3.3 启动datanode

  1. [root@single hadoop-2.8.4]# ./sbin/hadoop-daemon.sh start datanode
  2. starting datanode, logging to /usr/local/app/hadoop-2.8.4/logs/hadoop-root-datanode-single.out

 

到这里hdfs就启动好了,可以通过浏览器访问:服务器的IP:50070  

              

 如果访问不了,需注意看是不是自己配置文件有误,或者启动的时候有异常信息(logs目录下查看)。还有可能是防火墙没有关闭,或者50070端口没有开放之类的(service iptables status  查看是否有50070端口)。

3.4启动yarn(整体启动,不在分resourcemanager之类的逐个启动了)

  1. [root@single hadoop-2.8.4]# ./sbin/start-yarn.sh
  2. starting yarn daemons
  3. starting resourcemanager, logging to /usr/local/app/hadoop-2.8.4/logs/yarn-root-resourcemanager-single.out
  4. The authenticity of host 'localhost (::1)' can't be established.
  5. RSA key fingerprint is 47:18:cf:b6:6f:54:cf:cc:3b:f1:8a:18:e2:4f:ee:c5.
  6. Are you sure you want to continue connecting (yes/no)? yes
  7. localhost: Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
  8. root@localhost's password:
  9. localhost: starting nodemanager, logging to /usr/local/app/hadoop-2.8.4/logs/yarn-root-nodemanager-single.out

 本机没有做ssh免密码登录,所以让我输入密码了。

 这里可以查看yarn       服务ip:8088

 

单机模式是Hadoop的默认模式,在该模式下无需任何守护进程,所有程序都在单个JVM上运行,该模式主要用于开发和调试mapreduce的应用逻辑。

单机模式作为入门,学习mapreduce的编写,搞清楚mapreduce各个组件间的关系。为后面的集群模式,HA模式, Federation模式,HA-Federation模式打基础。

 

 

 

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/804397
推荐阅读
相关标签
  

闽ICP备14008679号