赞
踩
要点如下:
我使用ubuntu16 桌面版, 安装virtualbox后,创建虚拟机: 添加centos7镜像文件
点击 ‘start’, 开始安装centos7....
安装完成后, 需要关机,centos虚拟机还需以下配置:
点击"File"---->host network manager : "create"
重启虚拟机, 配置网卡
此时只有两个网络配置文件:ifcfg-enp0s3 ,ifcfg-lo ----->复制一份文件,对应刚添加的新网卡 enp0s8
注意:网卡enp0s8的网段要和 virtualbox的一致
重启网卡,再次查看网络: service network restart && ip addr
因为centos7 mini版, 界面不美观,输入也不方便,所以我使用ubuntu 16 远程登录来控制虚拟机,具体操作如下
在伪分布基础上:(修改)
1,添加物理机: 分离datanode-->部署在多个slave节点
2, 配置slaves文件: 加入datanode主机名
3,修改系统ip映射: /etc/hosts--> 加入datanode 节点主机名ip映射
4,在master节点修改: hdfs-site.xml-->备份数3, 再同步master节点配置文件
5,删除工作目录, 重新格式化namenode
在伪分布式的基础上, 修改slaves文件, 删除localhost--->替换为真实slave节点主机名; 重新format namenode即可
更改hdfs-site.xml:加入以下内容
- <property>
- <name>dfs.namenode.secondary.http-address</name>
- <value>某某主机名:50090</value>
- </property>
- #!/bin/bash
- #修改Ip
- if [[ -n $1 && -n $2 && -n $3 ]]
- then
- sed -i "s@192.168.56.11$1@192.168.56.11$2@g" /etc/sysconfig/network-scripts/ifcfg-enp0s8
- service network restart
- #修改hostname
- echo "$3">/etc/hostname
- #重启
- reboot
- else
- echo "需要三个参数: 原ip 目标ip 目标hostname...."
- fi
- #!/bin/bash
- #脚本作用: 解压安装hadoop
-
- #创建安装目录
- mkdir -p /soft/{jdk,hadoop}
- tar -zxvf jdk-8u171-linux-x64.tar.gz -C /soft/jdk
- tar -zxvf hadoop-2.7.3.tar.gz -C /soft/hadoop
- (cd /soft/jdk ; mv jdk* jdk8)
- (cd /soft/hadoop ; mv hadoop* hadoop2.7)
-
- #jdk,hadoop环境变量配置
- echo "JAVA_HOME=/soft/jdk/jdk8" >> /etc/profile
- echo "HADOOP_HOME=/soft/hadoop/hadoop2.7" >> /etc/profile
- echo 'PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin' >> /etc/profile
- echo 'export JAVA_HOME=/soft/jdk/jdk8'>>/soft/hadoop/hadoop2.7/etc/hadoop/hadoop-env.sh
-
- #验证是否安装成功
- source /etc/profile
- java -version
- hadoop version
- <!--namenode通信端口+ hdfs工作目录-->
- <?xml version="1.0" encoding="UTF-8"?>
- <configuration>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/home/centos/hadoop-tmp</value>
- </property>
- <property>
- <name>fs.defaultFS</name>
- <value>hdfs://localhost:9000</value>
- </property>
- </configuration>
- <?xml version="1.0" encoding="UTF-8"?>
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- </configuration>
- <?xml version="1.0"?>
- <configuration>
- <property>
- <name>mapreduce.framework.name</name>
- <value>yarn</value>
- </property>
-
- <!-- hadoop 3.x 要加一下配置,否则跑任务报错这个提示
- <property>
- <name>yarn.app.mapreduce.am.env</name>
- <value>HADOOP_MAPRED_HOME=${/xx/bb}</value>
- </property>
- <property>
- <name>mapreduce.map.env</name>
- <value>HADOOP_MAPRED_HOME=${/xx/bb}</value>
- </property>
- <property>
- <name>mapreduce.reduce.env</name>
- <value>HADOOP_MAPRED_HOME=${/xx/bb}</value>
- </property>
- -->
- </configuration>
- <?xml version="1.0"?>
- <configuration>
- <property>
- <name>yarn.resourcemanager.hostname</name>
- <value>node</value>
- </property>
- <property>
- <name>yarn.nodemanager.aux-services</name>
- <value>mapreduce_shuffle</value>
- </property>
- </configuration>
- #1,修改slaves或 workers文件,添加worker节点
- #2,配置本机免密登录 所有worker节点
-
- ./bin/hdfs namenode -format
-
- ./sbin/start-dfs.sh
-
- #3, 配置hadoop PATH环境变量,使用jps查看进程
- #4, 执行测试任务:hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.3.jar pi 1 1
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。