当前位置:   article > 正文

Hadoop伪分布式的安装配置步骤_hadoop伪分布式安装步骤

hadoop伪分布式安装步骤

1.配置步骤

1. 安装JDK

2. 关闭防火墙

3. 修改主机名。Hadoop要求主机名中不能出现 - 或者_ 等特殊字符

vim /etc/sysconfig/network

修改HOSTNAME,例如

HOSTNAME=hadoop01

保存退出,然后重新生效

source /etc/sysconfig/network

4. 需要将主机名和IP进行映射

vim /etc/hosts

将之前的内容全部删除

添加IP 主机名映射,例如

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

10.9.162.133 hadoop01

保存退出

5. 重启

reboot

重启后之前的是ip为名称的主机名已经被修改,因为hadoop的主机名称不能有下划线,横线等,此时登录可以看到已经修改的主机名称

6. 配置免密互通

在上面第五步骤重启后在默认的路径下执行下面语句

ssh-keygen —然后一路回车

上面回车完成后 执行下面语句 @后面跟的是主机名称,表示将对hadoop01免密,将公钥拷给hadoop01

ssh-copy-id root@hadoop01

然后输入密码

***** 如果出现Name or Service not known,检查hosts文件是否正确

设置免密完成后输入如下命令,查看是否需要密码,如果不需要,则说明免密成功

ssh hadoop01

7. 进入software目录

cd /home/software/

8. 下载Hadoop安装包

wget http://bj-yzjd.ufile.cn-north-02.ucloud.cn/hadoop-2.7.1_64bit.tar.gz

9. 解压

tar -xvf hadoop-2.7.1_64bit.tar.gz

10. 进入子目录

hadoop-2.7.1/etc/hadoop

11. 编辑

vim hadoop-env.sh

修改

export JAVA_HOME=/home/presoftware/jdk1.8 export HADOOP_CONF_DIR=/home/software/hadoop-2.7.1/etc/hadoop

分别为JDK和Hadoop的安装目录

保存退出,然后重新生效

source hadoop-env.sh

12. 编辑

vim core-site.xml

添加

fs.defaultFS hdfs://hadoop01:9000 hadoop.tmp.dir /home/software/hadoop-2.7.1/tmp

13. 编辑

vim hdfs-site.xml

添加

dfs.replication 1

14. 复制

cp mapred-site.xml.template mapred-site.xml

编辑

vim mapred-site.xml

添加

mapreduce.framework.name yarn

15. 编辑

vim yarn-site.xml

添加

yarn.resourcemanager.hostname hadoop01 yarn.nodemanager.aux-services mapreduce_shuffle

16. 编辑

vim slaves

添加第一台云主机的主机名

17. 配置环境变量

vim /etc/profile

在文件末尾添加

export HADOOP_HOME=/home/software/hadoop-2.7.1 export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存退出,然后重新生效

source /etc/profile

18. 在第一次启动Hadoop之前需要格式化

hadoop namenode -format

如果出现Storage directory /home/software/hadoop-2.7.1/tmp/dfs/name has been successfully formatted.表示格式化成功

*** 如果格式化失败,修改完错误之后,删除/home/software/hadoop-2.7.1/tmp目录,修改错误之后再重新格式化

19. 启动Hadoop

start-all.sh

注:如果设置有密码,那么需要输入密码多次逐个登录

20. 通过jps查看

Jps

NameNode

DataNode

SecondaryNameNode

ResourceManager

NodeManager

启动成功,输入对应的ip+端口可以通过前端访问不同节点

nameDode

DataNode

SecondaryNameNode

ResourceManager

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/544588
推荐阅读
相关标签
  

闽ICP备14008679号