赞
踩
需要的安装包:
①上传jdk安装包到/opt/install目录下
②解压jdk到/usr/local/src/目录下
vi /etc/profire
在最后添加以下两行:
执行source命令,使文件配置生效:
检查Java是否可用:能够正常显示版本号,说明jdk安装并配置成功
上传Hadoop安装包到/opt/install/目录下:
解压Hadoop到/usr/local/src/目录下:
修改环境变量:
vi /etc/profile
添加以下两行配置:
source使配置文件生效:
进入/usr/local/src/hadoop-2.7.1/etc/hadoop/ 目录下:
①编辑hadoop-env.sh文件:vi hadoop-env.sh
注意:jdk路径不要写错
②编辑core-site.xml文件:vi core-site.xml
③编辑hdfs-site.xml文件:vi hdfs-site.xml
④编辑mapred-site.xml文件:vi mapred-site.xml
先备份mapred-site.xml.tmplate文件 并改名为mapred-site.xml
⑤编辑yarn-site.xml文件:vi yarn-site.xml
⑥编辑/usr/local/src/hadoop-2.7.1/etc/hadoop/slaves 文件
格式化hdfs
[root@master ~]# hdfs namenode -format
启动hadoop集群
jps查看
在浏览器地址里输入 http://192.168.130.100:50070 或 http://master:50070
1,上传spark安装包到 /opt/install
2,解压该安装包到 /usr/local/src
3,进入conf 目录下
备份spark-env.sh.template文件,改名为spark-env.sh
[root@master bin]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/conf/
[root@master conf]# cp spark-env.sh.template spark-env.sh
4,编辑 spark-env.sh 文件 :vi spark-env.sh
5,启动spark集群:
[root@master conf]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/sbin/
[root@master sbin]# ./start-all.sh
6,jps查看:
多了master和worker,说明成功
7,启动spark-shell
[root@master ~]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/
[root@master spark-2.0.0-bin-hadoop2.6]# ./bin/spark-hell
8,查看网页 http://master:8080
[root@master ~]# vim /etc/profile
export SCALA_HOME=/usr/local/src/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
source使配置生效
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。