赞
踩
standalone,Yarn,Messos(国内很少用)
说明
【standalone:由spark自己来完成资源的管理与调度】
standalone:主从架构 ---- >master worker
cp spark-env.sh.template spark-env.sh
添加以下内容,master节点是Master(主) 注意:"="附近无空格:
export JAVA_HOME=/home/wyc/apps/jdk
export SPARK_MASTER_HOST=master
export SPARK_MASTER_PORT=7077
cp slaves.template slaves
添加工作节点(Worker 从节点),如下:
slave1
slave2
slave3
(注意:
需要注释或删除原内容:localhost,否则运行start-slaves.sh会提示错误,但无影响)
cp spark-defaults.conf.template spark-defaults.conf
留着备用
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave1:/home/wyc/apps/
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave2:/home/wyc/apps/
scp -r ~/apps/spark-2.1.2-bin-hadoop2.7/ wyc@slave3:/home/wyc/apps/
ln -s spark-2.1.2-bin-hadoop2.7 spark //在Slave1节点上
ln -s spark-2.1.2-bin-hadoop2.7 spark //在Slave2节点上
ln -s spark-2.1.2-bin-hadoop2.7 spark //在Slave3节点上
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。