当前位置:   article > 正文

Spark 完全分布式的安装和部署_spark完全分布式环境搭建步骤

spark完全分布式环境搭建步骤

目录

第1关: Standalone 分布式集群搭建

任务描述

相关知识

课程视频

Spark分布式安装模式

示例集群信息

配置免密登录

准备Spark安装包

配置环境变量

修改 spark-env.sh 配置文件

修改 slaves 文件

分发安装包

启动spark

验证安装

编程要求

测试说明

代码


第1关: Standalone 分布式集群搭建

任务描述

掌握 Standalone 分布式集群搭建。

相关知识

我们已经掌握了 Spark 单机版安装,那么分布式集群怎么搭建呢? 接下来我们学习 Standalone 分布式集群搭建。

课程视频

如果你需要在本地配置 Spark 完全分布式环境,可以通过查看课程视频来学习。

Spark分布式安装模式

Spark 分布式环境安装目前有四种模式:

1.Standalone:Spark 自带的简单群资源管理器,安装较为简单,不需要依赖 Hadoop;

2.Hadoop YARN:使用 YARN 作为集群资源管理,安装需要依赖 Hadoop;

3.Apache Mesos:不常用;

4.Kubernetes:不常用。

本地学习测试我们常用 Standalone 模式,生产环境常使用 YARN 模式。

示例集群信息

以下表格为本教程所用示例集群节点信息:

节点名称节点角色
masterworker,master
slave1worker
slave2worker

我们准备了三台虚拟服务器,连接方式如下:

服务器SSH密码ip
masterssh 172.18.0.2123456172.18.0.2
slave1ssh 172.18.0.3123456172.18.0.3
slave2ssh 172.18.0.4123456172.18.0.4

第一步我们需要在 evassh 服务器初始化虚拟服务器:

 
  1. cd /home
  2. wrapdocker
  3. ulimit -f 1024000
  4. docker load -i hbase-ssh2_v1.0.tar
  5. docker-compose up -d

注意:请不要在各个虚拟服务器之间进行 ssh 登录,这种操作会导致无法保存配置数据。正确方法是:在虚拟服务器里执行 exit 后回到 evassh 服务器,再按上述方法登录各虚拟服务器。

配置免密登录

Hadoop 集群在启动脚本时,会去启动各个节点,此过程是通过 SSH 去连接的,为了避免启动过程输入密码,需要配置免密登录。

1、分别在 master、slave1、slave 生成密钥,命令如下:

 
  1. ssh-keygen -t rsa

2、 在 master 复制 master、slave1、slave2 的公钥。

 
  1. cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
  2. ssh root@slave1 cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
  3. ssh root@slave2 cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys

3、 分别在 slave1、slave2 复制 master 的 authorized_keys 文件。

 
 
  1. ssh root@master cat ~/.ssh/authorized_keys>> ~/.ssh/authorized_keys

到此,免密已经成功,可以在各个虚拟服务器之间进行 ssh 登录,而不需要输入密码了。

准备Spark安装

把 evassh 服务器的 /usr/local 目录下的 spark 安装包通过 SCP 命令上传到 master 虚拟服务器的 /usr/local 目录下。

 
 
  1. scp -r /usr/local/spark-2.3.4-bin-hadoop2.7 root@172.18.0.2:/usr/local

密码为:123456。

配置环境变量

我们将 Spark 的安装目录配置到 /etc/profile 中(在文件末尾添加)。

不要忘了 source /etc/profile

该步骤所有虚拟服务器节点均可执行。

修改 spark-env.sh 配置文件

首先生成一份 spark-env.sh 文件(master节点):

切换目录到:/usr/local/spark-2.3.4-bin-hadoop2.7/conf 执行命令:mv spark-env.sh.template spark-env.sh

修改 spark-env.sh 文件:

执行命令:vi spark-env.sh,添加以下内容:

 
  1. #指定JAVA安装路径/usr/lib/jvm/jdk1.8.0_111
  2. export JAVA_HOME=java安装路径
  3. #指定SCALA安装位置,非必须配置,可不指定
  4. export SCALA_HOME=scala安装路径
  5. #指定spark master webui 端口,默认是 8080,跟 tomcat 冲突
  6. SPARK_MASTER_WEBUI_PORT=8888
  7. #指定Master节点IP或映射地址
  8. export SPARK_MASTER_IP=master节点IP或映射地址
修改 slaves 文件

首先生成一份 slaves 文件(master节点)。

切换到 Spark 的 conf 目录下, 执行命令: mv slaves.template slaves

修改 slaves 文件, 执行命令: vi slaves 在该文件中加入作为 worker 节点 ip 或映射主机名。

 
 
  1. master
  2. slave1
  3. slave2
分发安装包

把 master 节点的 spark 安装包分发到 slave1 节点和 slave2 节点(通过 scp 命令)。

 
  1. scp -r spark-2.3.4-bin-hadoop2.7/ root@slave1:/usr/local
启动spark

切换到 master 节点安装目录的 /sbin 目录下 执行命令启动 Spark 集群:./start-all.sh

验证安装

输入 jps 命令查看。 master 节点有以下进程:

 
  1. master
  2. worker

slave1 节点有以下进程:

 
  1. worker

slave2 节点有以下进程:

 
  1. worker
编程要求

请按照步骤小心安装,安装完成后点击测评即可。

测试说明

点击测评后,后台会通过curl http://172.18.0.2:8888/ 命令获取页面,并取其中部分内容来判定你是否安装成功。

预期输出:

 
  1. <li><strong>Alive Workers:</strong> 3</li>
代码

docker-compose up -d 这个会报错,一直输,可能大概十几次,直到三个服务器都启动:

出现大概这样的字样:master up to data

                                    slave1 up to data

                                    slave2 up to data

表示启动成功

退出到educoder输入exit,可能要很多次,例如:

  1. cd /home
  2. wrapdocker
  3. ulimit -f 1024000
  4. docker load -i hbase-ssh2_v1.0.tar #要等待很长很长时间加载资源
  5. docker-compose up -d #报错多进行几次,直到出现三个服务器
  6. # 分别连接三个服务器
  7. ssh root@172.18.0.2172.18.0.3172.18.0.4 #分开写不要直接复制呦
  8. ssh-keygen -t rsa #按三次空格建立免密
  9. ssh root@172.18.0.2 # password=123456三个密码都是这个
  10. cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
  11. ssh root@172.18.0.3 cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
  12. ssh root@172.18.0.4 cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
  13. ssh root@172.18.0.3
  14. ssh root@172.18.0.2 cat ~/.ssh/authorized_keys>> ~/.ssh/authorized_keys
  15. ssh root@172.18.0.4
  16. ssh root@172.18.0.2 cat ~/.ssh/authorized_keys>> ~/.ssh/authorized_keys
  17. # educoder 多输几次exit,直到退出三个服务器返回到educoder
  18. scp -r /usr/local/spark-2.3.4-bin-hadoop2.7 root@172.18.0.2:/usr/local
  19. #下面都在172.18.0.2服务器进行
  20. ssh root@172.18.0.2
  21. vim /etc/profile
  22. export SPARK_HOME=/usr/local/spark-2.3.4-bin-hadoop2.7
  23. export PATH=$PATH:$SPARK_HOME/bin
  24. source /etc/profile
  25. cd /usr/local/spark-2.3.4-bin-hadoop2.7/conf
  26. cp spark-env.sh.template spark-env.sh
  27. vi spark-env.sh
  28. export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
  29. export SPARK_MASTER_WEBUI_PORT=8888
  30. export SPARK_MASTER_IP=172.18.0.2
  31. cp slaves.template slaves
  32. vi slaves
  33. # 删除localhost
  34. 172.18.0.2
  35. 172.18.0.3
  36. 172.18.0.4
  37. scp -r /usr/local/spark-2.3.4-bin-hadoop2.7/ root@172.18.0.3:/usr/local
  38. scp -r /usr/local/spark-2.3.4-bin-hadoop2.7/ root@172.18.0.4:/usr/local
  39. $SPARK_HOME/sbin/start-all.sh
  40. jps

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/526903
推荐阅读
相关标签
  

闽ICP备14008679号