赞
踩
`简单介绍spark3.x版本的安装与配置
我的三台机器分别为q01,slave02,slave03
`
[root@q01 software]# tar -zvxf spark-3.1.2-bin-hadoop3.2.tgz -C /usr/local
[root@q01 local]# mv spark-3.1.2-bin-hadoop3.2/ spark-3.1.2
进入spark-3.1.2/conf下
将spark-env.sh.template 改名
[root@q01 conf]# mv spark-env.sh.template spark-env.sh
vim 进入spark-env.sh,加入jdk安装路径
export JAVA_HOME=/usr/local/jdk1.8.0_202
保存退出
改名
[root@q01 conf]# mv workers.template workers
vim 进入
在末尾插入从节点的名字
根据你集群的实际情况配置
配置环境变量
vim /etc/profile
在最后面加入
export SPARK_HOME=/usr/local/spark-3.1.2
export PATH=$PATH:$SPARK_HOME/bin
保存退出
source一下
source /etc/profile
进入/usr/local
将配置好的spark拷贝到另外两台机器
注意节点名称和你所处的位置
[root@q01 local]# scp -r spark-3.1.2/ slave02:$PWD
[root@q01 local]# scp -r spark-3.1.2/ slave03:$PWD
先启动hadoop集群:进入hadoop目录下
./sbin/start-all.sh
然后启动spark:进入spark目录下
./sbin/start-all.sh
最后jps一下,三台机器上的状况依次如下:主机,slave02,slave03
如果有不足之处,请留下您宝贵的意见
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。