赞
踩
目录
2.4.4 修改 dolphinscheduler_env.sh 配置文件
软硬件环境建议配置:https://dolphinscheduler.apache.org/zh-cn/docs/3.1.8/about/hardware
DolphinScheduler 提供了 4 种安装部署方式:
单机部署(Standalone):Standalone 仅适用于 DolphinScheduler 的快速体验。如果你是新手,想要体验 DolphinScheduler 的功能,推荐使用[Standalone]方式体检。
伪集群部署(Pseudo-Cluster):伪集群部署目的是在单台机器部署 DolphinScheduler 服务,该模式下master、worker、api server 都在同一台机器上。如果你想体验更完整的功能,或者更大的任务量,推荐使用伪集群部署。
集群部署(Cluster):集群部署目的是在多台机器部署 DolphinScheduler 服务,用于运行大量任务情况。如果你是在生产中使用,推荐使用集群部署或者 kubernetes。
Kubernetes 部署:Kubernetes 部署目的是在 Kubernetes 集群中部署 DolphinScheduler 服务,能调度大量任务,可用于在生产中部署。
注意:
- Standalone 仅建议 20 个以下工作流使用,因为其采用内存式的 H2 Database, Zookeeper Testing Server,任务过多可能导致不稳定,并且如果重启或者停止standalone-server 会导致内存中数据库里的数据清空。 如果您要连接外部数据库,比如 mysql 或者 postgresql。
- Kubernetes 部署先决条件:Helm3.1.0+ ;Kubernetes1.12+;PV 供应(需要基础设施支持)。
本次是集群部署 DolphinScheduler 3.1.8
参考官方文档: https://dolphinscheduler.apache.org/zh-cn/docs/3.1.8/guide/installation/pseudo-cluster
集群模式下,可配置多个 Master 及多个 Worker。通常可配置 2~3 个 Master,若干个 Worker。由于集群资源有限,此处配置 2 个 Master,3 个 Worker,集群规划如下。
主机名 | ip | 服务 | 备注 |
---|---|---|---|
hadoop01 | 192.168.170.136 | master、worker | JDK、MySQL、zookeeper |
hadoop02 | 192.168.170.137 | master、worker | JDK、zookeeper |
hadoop03 | 192.168.170.138 | worker | JDK、zookeeper |
集群部署 DolphinScheduler 需要有外部软件的支持:
操作系统:Linux Centos 7.9
部署版本:apache-dolphinscheduler-3.1.8-bin
JAVA_HOME
环境变量,并将其下的 bin
目录追加到 PATH
环境变量中。如果你的环境中已存在,可以跳过这步。(JDK 安装教程:Linux 部署 JDK+MySQL+Tomcat 详细过程_linux系统部署mysql+tomcat-CSDN博客)注意: DolphinScheduler 本身不依赖 Hadoop、Hive、Spark,但如果你运行的任务需要依赖他们,就需要有对应的环境支持。
创建部署用户,并且一定要配置 sudo
免密。以创建 dolphinscheduler 用户为例:
- # 创建用户需使用 root 登录
- useradd dolphinscheduler
-
- # 添加密码
- echo "dolphinscheduler" | passwd --stdin dolphinscheduler
-
- # 配置 sudo 免密
- sed -i '$adolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' /etc/sudoers
- sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers
-
- # 修改目录权限,使得部署用户对二进制包解压后的 dolphinscheduler 目录有操作权限
- chown -R dolphinscheduler:dolphinscheduler /bigdata/dolphinscheduler
注意:
- 因为任务执行服务是以
sudo -u {linux-user}
切换不同 linux 用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。初学习者不理解的话,完全可以暂时忽略这一点。- 如果发现
/etc/sudoers
文件中有 "Defaults requirett" 这行,也请注释掉。
由于安装的时候需要向不同机器发送资源,所以要求各台机器间能实现SSH免密登陆。配置免密登陆的步骤如下:
- [root@hadoop01 /bigdata]# su dolphinscheduler
- [dolphinscheduler@hadoop01 /root]$ ssh-keygen
- [dolphinscheduler@hadoop01 /root]$ ssh-copy-id hadoop01
- [dolphinscheduler@hadoop01 /root]$ ssh-copy-id hadoop02
- [dolphinscheduler@hadoop01 /root]$ ssh-copy-id hadoop03
注意: 配置完成后,可以通过运行命令
ssh localhost
判断是否成功,如果不需要输入密码就能 ssh 登陆则证明成功
进入 zookeeper 的安装目录,将 zoo_sample.cfg
配置文件复制到 conf/zoo.cfg
,并将 conf/zoo.cfg
中 dataDir 中的值改成 dataDir=./tmp/zookeeper
- # 启动 zookeeper
- ./bin/zkServer.sh start
DolphinScheduler 元数据存储在关系型数据库中,目前支持 PostgreSQL 和 MySQL。下面分别介绍如何使用 MySQL 初始化数据库。
- -- 进入 MySQL 命令行
- [root@hadoop01 ~]# mysql -u root -pqwe123456
-
- -- 创建 dolphinscheduler 的元数据库,并指定编码
- mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
-
- -- 创建 dolphinscheduler 的数据库用户和密码,并限定登陆范围
- mysql> CREATE USER 'dolphinscheduler'@'%' IDENTIFIED BY 'Qwe123456.';
-
- -- 为 dolphinscheduler 数据库授权
- mysql> grant all privileges on dolphinscheduler.* to 'dolphinscheduler'@'%' ;
-
- -- 刷新权限
- mysql> flush privileges;
上传 DolphinScheduler 安装包到 hadoop01节点,并解压安装包到该目录。
-
- [root@hadoop01 ~]# tar -zxvf apache-dolphinscheduler-3.1.8-bin.tar.gz -C /bigdata/
- [root@hadoop01 ~]# mv /bigdata/apache-dolphinscheduler-3.1.8-bin /bigdata/dolphinscheduler
需要手动下载 mysql-connector-java 驱动 (8.0.16) 并移动到 DolphinScheduler 的每个模块的 libs 目录下,其中包括 api-server/libs
和 alert-server/libs
和 master-server/libs
和 worker-server/libs
。
- # 复制 mysql 的驱动到对应 libs 目录中
- [root@hadoop01 ~]# cp mysql-connector-java-8.0.16.jar /bigdata/dolphinscheduler/alert-server/libs/
- [root@hadoop01 ~]# cp mysql-connector-java-8.0.16.jar /bigdata/dolphinscheduler/master-server/libs/
- [root@hadoop01 ~]# cp mysql-connector-java-8.0.16.jar /bigdata/dolphinscheduler/worker-server/libs/
- [root@hadoop01 ~]# cp mysql-connector-java-8.0.16.jar /bigdata/dolphinscheduler/api-server/libs/
- [root@hadoop01 ~]# cp mysql-connector-java-8.0.16.jar /bigdata/dolphinscheduler/tools/libs/
dolphinscheduler_env.sh
配置文件 文件 ./bin/env/dolphinscheduler_env.sh
描述了下列配置:
DolphinScheduler 的数据库配置,将 username 和 password 改成你在上一步中设置的用户名和密码
一些任务类型外部依赖路径或库文件,如 JAVA_HOME
和 SPARK_HOME
都是在这里定义的
注册中心 zookeeper
服务端相关配置,比如缓存,时区设置等
如果您不使用某些任务类型,您可以忽略任务外部依赖项,但您必须根据您的环境更改 JAVA_HOME
、注册中心和数据库相关配置。
- # 修改内容如下
- [root@hadoop01 ~]# vim /bigdata/dolphinscheduler/bin/env/dolphinscheduler_env.sh
-
- # JAVA_HOME, will use it to start DolphinScheduler server
- # 改为自己的 JDK 路径
- export JAVA_HOME=${JAVA_HOME:-/usr/java/jdk1.8.0_381}
-
- # Database related configuration, set database type, username and password
- # MySQL 数据库连接信息
- export DATABASE=${DATABASE:-mysql}
- export SPRING_PROFILES_ACTIVE=${DATABASE}
- export SPRING_DATASOURCE_URL="jdbc:mysql://192.168.170.136:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&useSSL=false&allowPublicKeyRetrieval=true"
- export SPRING_DATASOURCE_USERNAME=${SPRING_DATASOURCE_USERNAME:-"dolphinscheduler"}
- export SPRING_DATASOURCE_PASSWORD=${SPRING_DATASOURCE_PASSWORD:-"Qwe123456."}
-
- # DolphinScheduler server related configuration
- # 不用修改
- export SPRING_CACHE_TYPE=${SPRING_CACHE_TYPE:-none}
- export SPRING_JACKSON_TIME_ZONE=${SPRING_JACKSON_TIME_ZONE:-UTC}
- export MASTER_FETCH_COMMAND_NUM=${MASTER_FETCH_COMMAND_NUM:-10}
-
- # Registry center configuration, determines the type and link of the registry center
- # zookeeper 集群信息
- export REGISTRY_TYPE=${REGISTRY_TYPE:-zookeeper}
- export REGISTRY_ZOOKEEPER_CONNECT_STRING=${REGISTRY_ZOOKEEPER_CONNECT_STRING:-hadoop01:2181,hadoop02:2181,hadoop03:2181}
-
- # Tasks related configurations, need to change the configuration if you use the related tasks.
- # 对已有可以正常配置,没有的保持默认即可
- export HADOOP_HOME=${HADOOP_HOME:-/bigdata/hadoop/server/hadoop-3.2.4}
- export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop}
- export SPARK_HOME1=${SPARK_HOME1:-/bigdata/spark-3.2.4}
- export SPARK_HOME2=${SPARK_HOME2:-/bigdata/spark-3.2.4}
- export PYTHON_HOME=${PYTHON_HOME:-/usr/local/anaconda3/bin/python}
- export HIVE_HOME=${HIVE_HOME:-/bigdata/apache-hive-3.1.2}
- export FLINK_HOME=${FLINK_HOME:-/bigdata/flink}
- export DATAX_HOME=${DATAX_HOME:-/bigdata/datax}
- export SEATUNNEL_HOME=${SEATUNNEL_HOME:-/bigdata/seatunnel}
- export CHUNJUN_HOME=${CHUNJUN_HOME:-/bigdata/chunjun}
-
- export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME/bin:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$SEATUNNEL_HOME/bin:$CHUNJUN_HOME/bin:$PATH
- # 切换到 dolphinscheduler 目录下,执行命令
- [root@hadoop01 ~]# cd /bigdata/dolphinscheduler/
- [root@hadoop01 /bigdata/dolphinscheduler]# bash tools/bin/upgrade-schema.sh
install_env.sh
文件 完成基础环境的准备后,需要根据你的机器环境修改配置文件。配置文件可以在目录 bin/env
中找到,他们分别是 并命名为 install_env.sh
和 dolphinscheduler_env.sh
。文件 install_env.sh
描述了哪些机器将被安装 DolphinScheduler 以及每台机器对应安装哪些服务。您可以在路径 bin/env/install_env.sh
中找到此文件,可通过以下方式更改env变量,export <ENV_NAME>=,配置详情如下。
- [root@hadoop01 ~]# vim /bigdata/dolphinscheduler/bin/env/install_env.sh
- # 所有组件涉及的机器
- ips=${ips:-"192.168.170.136,192.168.170.137,192.168.170.138"}
-
- # ssh 连接的端口
- sshPort=${sshPort:-"22"}
-
- # master 节点
- masters=${masters:-"192.168.170.136,192.168.170.137"}
-
- # 工作节点
- workers=${workers:-"192.168.170.136:default,192.168.170.137:default,192.168.170.138:default"}
-
- # 部署报警服务的机器
- alertServer=${alertServer:-"192.168.170.138"}
-
- # 部署前端 API 接口的服务器
- apiServers=${apiServers:-"192.168.170.136"}
-
- # 安装路径
- installPath=${installPath:-"/bigdata/dolphinscheduler-3.1.8"}
-
- # 使用的用户
- deployUser=${deployUser:-"root"}
-
- # 在 zookeeper 中使用的名称空间
- zkRoot=${zkRoot:-"/dolphinscheduler"}
使用上面创建的部署用户运行以下命令完成部署,部署后的运行日志将存放在 logs 文件夹内
- [root@hadoop01 ~]# cd /bigdata/dolphinscheduler/
- [root@hadoop01 /bigdata/dolphinscheduler]# bash ./bin/install.sh
注意: 第一次部署的话,可能出现 5 次 sh: bin/dolphinscheduler-daemon.sh: No such file or directory
相关信息,此为非重要信息直接忽略即可。
浏览器访问地址 http://localhost:12345/dolphinscheduler/ui 即可登录系统UI。默认的用户名和密码是 admin/dolphinscheduler123
在监控中心即可查看各个组件的状态:
第一次安装后会自动启动所有服务的,如有服务问题或者后续需要启停,命令如下。下面的操作脚本都在 dolphinScheduler 安装目录 bin 下(/bigdata/dolphinscheduler-3.1.8/)。
- # 一键停止集群所有服务
- bash ./bin/stop-all.sh
-
- # 一键开启集群所有服务
- bash ./bin/start-all.sh
-
- # 启停 Master
- bash ./bin/dolphinscheduler-daemon.sh stop master-server
- bash ./bin/dolphinscheduler-daemon.sh start master-server
-
- # 启停 Worker
- bash ./bin/dolphinscheduler-daemon.sh start worker-server
- bash ./bin/dolphinscheduler-daemon.sh stop worker-server
-
- # 启停 Api
- bash ./bin/dolphinscheduler-daemon.sh start api-server
- bash ./bin/dolphinscheduler-daemon.sh stop api-server
-
- # 启停 Alert
- bash ./bin/dolphinscheduler-daemon.sh start alert-server
- bash ./bin/dolphinscheduler-daemon.sh stop alert-server
注意 1 : 每个服务在路径
<service>/conf/dolphinscheduler_env.sh
中都有dolphinscheduler_env.sh
文件,这是可以为微 服务需求提供便利。意味着您可以基于不同的环境变量来启动各个服务,只需要在对应服务中配置<service>/conf/dolphinscheduler_env.sh
然后通过<service>/bin/start.sh
命令启动即可。但是如果您使用命令/bin/dolphinscheduler-daemon.sh start <service>
启动服务器,它将会用文件bin/env/dolphinscheduler_env.sh
覆盖<service>/conf/dolphinscheduler_env.sh
然后启动服务,目的是为了减少用户修改配置的成本.注意 2 :服务用途请具体参见《系统架构设计》小节。Python gateway service 默认与 api-server 一起启动,如果您不想启动 Python gateway service 请通过更改 api-server 配置文件
api-server/conf/application.yaml
中的python-gateway.enabled : false
来禁用它。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。