赞
踩
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave01:9868</value>
</property>
(3)编辑mapred-site.xml
(4)编辑yarn-site.xml
3. 修改workers文件
cd /usr/local/hadoop/etc/hadoop
vim workers
文件内容(没有slave03的不要最后一行):
slave01
slave02
slave03
4. 压缩hadoop安装文件夹,然后分发到slave主机:
cd /usr/local
5. 将master的环境变量配置文件及jdk文件夹传给slave:
(所有下面的scp命令如果被拒绝的话,前加上sudo 空格)
6.拷贝之后,在每个slave主机上利用source命令,是环境变量生效:
source ~/.bashrc
source /etc/profile
7.在slave节点以root账户登录,在各个slave节点解压:(注意需要在hadoop账户的主目录下切换到root账户)
如果解压出问题的话,解压命令修改为:
tar -zxvf /home/hadoop/hadoop.master.tar.gz -C /usr/local
6. 在master节点格式化namenode,只执行一次,以后启动Hadoop时不需要再次格式化。
注意:重复格式化会造成namenode和datanode的clusterID不一致,出现此种情况,需要删除各个节点hadoop下的tmp文件夹和logs文件夹的内容,然后,重新格式化namenode。
9. 分别在master和各个slave节点关闭网络防火墙,不然的话,查看集群时会发现live nodes只有1个:
service iptables start # 临时打开防火墙
service iptables stop # 临时关闭防火墙
service iptables status # 查看防火墙状态
chkconfig iptables on # 打开防火墙开机自启
chkconfig iptables off # 关闭防火墙开机自启
chkconfig --list iptables # 查看防火墙开机自启状态
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。