DolphinScheduler 单机版部署
官网: https://dolphinscheduler.apache.org/
1、基础软件环境
- PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可,如 MySQL 则需要 JDBC Driver 5.1.47+
- JDK (1.8+):必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量
- ZooKeeper (3.4.6+):必装
- Hadoop (2.6+) or MinIO:选装, 如果需要用到资源上传功能,针对单机可以选择本地文件目录作为上传文件夹(此操作不需要部署 Hadoop );当然也可以选择上传到 Hadoop or MinIO 集群上
注意:DolphinScheduler 本身不依赖 Hadoop、Hive、Spark,仅会调用它们的 Client,用于运行对应的任务
以下用到的软件包可以自行下载或直接百度云
链接:https://pan.baidu.com/s/17cGsrMix8VQg5PRgPK5XXQ 提取码:Boom
1.1 单机版 Zookeeper安装
1.下载
wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz
2.解压并修改目录名称
解压
tar -xvf apache-zookeeper-3.6.3-bin.tar.gz
修改名称
mv apache-zookeeper-3.6.3-bin apache-zookeeper-3.6.3
3.创建 data 和 dataLog 目录
mkdir /opt/apache-zookeeper-3.6.3/data
mkdir /opt/apache-zookeeper-3.6.3/dataLog
4.创建myid文件
进入data 目录
cd /opt/apache-zookeeper-3.6.3/data
编辑文件内容 1 即可。
echo 1 >myid
5.修改配置文件zoo.cfg
进入 conf 目录
cd /opt/apache-zookeeper-3.6.3/conf
复制配置文件
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg 在文件末尾添加以下内容
dataDir=/opt/apache-zookeeper-3.6.3/data
dataLogDir=/opt/apache-zookeeper-3.6.3/dataLog
server.1=192.168.10.11:2888:3888
server 可以写主机名,但是要在hosts文件做映射,否则不会生效。
6.赋权
对zookeeper的目录进行授权
chmod 777 -R /opt/apache-zookeeper-3.6.3
启动
/opt/apache-zookeeper-3.6.3/bin/zkServer.sh start
查看状态
/opt/apache-zookeeper-3.6.3/bin/zkServer.sh status
故障排查
/opt/apache-zookeeper-3.6.3/bin/zkServer.sh start-foreground
2、下载二进制tar.gz包
https://dolphinscheduler.apache.org/zh-cn/download/download.html
# 创建部署目录,部署目录请不要创建在 /root、/home 等高权限目录
mkdir -p /opt/dolphinscheduler
cd /opt/dolphinscheduler
# 解压缩
tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinscheduler
mv apache-dolphinscheduler-1.3.6-bin dolphinscheduler-bin
3、创建部署用户并赋予目录操作权限
创建部署用户,并且一定要配置 sudo 免密。以创建 dolphinscheduler 用户为例
# 创建用户需使用 root 登录
useradd dolphinscheduler
# 添加密码
echo "dolphinscheduler" | passwd --stdin dolphinscheduler
# 配置 sudo 免密
sed -i '$adolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' /etc/sudoers
sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers
# 修改目录权限,使得部署用户对 dolphinscheduler-bin 目录有操作权限
chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin
注意:
- 因为任务执行服务是以 sudo -u {linux-user} 切换不同 linux 用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。初学习者不理解的话,完全可以暂时忽略这一点
- 如果发现 /etc/sudoers 文件中有 “Default requiretty” 这行,也请注释掉
- 如果用到资源上传的话,还需要给该部署用户分配操作
本地文件系统或者 HDFS 或者 MinIO 的权限
dolphinscheduler_env.sh 配置 Datax
export DATAX_HOME=/opt/datax/
4、ssh免密配置
切换到部署用户并配置 ssh 本机免密登录
su dolphinscheduler
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
注意:正常设置后,dolphinscheduler 用户在执行命令 ssh localhost 是不需要再输入密码的
5、数据库初始化
注意 MySQL 的版本 必须 5.7+
进入数据库,默认数据库是 PostgreSQL,如选择 MySQL 的话,后续需要添加 mysql-connector-java 驱动包到 DolphinScheduler 的 lib 目录下
mysql -uroot -p
进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。注: {user} 和 {password} 需要替换为具体的数据库用户名和密码
CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED BY '{password}';
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost' IDENTIFIED BY '{password}';
flush privileges;
创建表和导入基础数据
修改 conf 目录下 datasource.properties 中的下列配置
vi conf/datasource.properties
如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理),还需要手动添加 [ mysql-connector-java 驱动 jar ] 包到 lib 目录下,这里下载的是 mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
# postgre
# spring.datasource.driver-class-name=org.postgresql.Driver
# spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler
# mysql
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true 需要修改ip,本机localhost即可
spring.datasource.username=xxx 需要修改为上面的{user}值
spring.datasource.password=xxx 需要修改为上面的{password}值
修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
sh script/create-dolphinscheduler.sh
注意: 如果执行上述脚本提示 “/bin/java: No such file or directory” 错误,请在 /etc/profile 下配置 JAVA_HOME 及 PATH 变量
6、修改运行参数
修改 conf/env 目录下的 dolphinscheduler_env.sh 环境变量(以相关用到的软件都安装在 /opt/soft 下为例)
export HADOOP_HOME=/opt/soft/hadoop
export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop
export SPARK_HOME1=/opt/soft/spark1
export SPARK_HOME2=/opt/soft/spark2
export PYTHON_HOME=/opt/soft/python
export JAVA_HOME=/opt/soft/java
export HIVE_HOME=/opt/soft/hive
export FLINK_HOME=/opt/soft/flink
export DATAX_HOME=/opt/soft/datax/bin/datax.py
export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH
根据自己实际情况配置,用不到的组件可以注释掉,并把PATH中的变量删除
使用CDH 集群的配置文件参考如下
注意: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉;如果找不到 dolphinscheduler_env.sh,请运行 ls -a
将jdk软链到 /usr/bin/java 下(仍以 JAVA_HOME=/opt/soft/java 为例)
sudo ln -s /opt/soft/java/bin/java /usr/bin/java
修改一键部署配置文件 conf/config/install_config.conf 中的各参数,特别注意以下参数的配置。单机版文件资源管理使用的是本地目录,可参考以下配置
# 这里填 mysql or postgresql
dbtype="mysql"
# 数据库连接地址
dbhost="localhost:3306"
# 数据库名
dbname="dolphinscheduler"
# 数据库用户名,此处需要修改为上面设置的 {user} 具体值
username="xxx"
# 数据库密码,如果有特殊字符,请使用 \ 转义,需要修改为上面设置的 {password} 具体值
password="xxx"
# Zookeeper地址,单机本机是 localhost:2181,记得把 2181 端口带上
zkQuorum="localhost:2181"
# 将 DS 安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录
installPath="/opt/soft/dolphinscheduler"
# 使用哪个用户部署,使用第 3 节创建的用户
deployUser="dolphinscheduler"
# 邮件配置,以 qq 邮箱为例
# 邮件协议
mailProtocol="SMTP"
# 邮件服务地址
mailServerHost="smtp.qq.com"
# 邮件服务端口
mailServerPort="25"
# mailSender 和 mailUser 配置成一样即可
# 发送者
mailSender="xxx@qq.com"
# 发送用户
mailUser="xxx@qq.com"
# 邮箱密码
mailPassword="xxx"
# TLS 协议的邮箱设置为 true,否则设置为 false
starttlsEnable="true"
# 开启 SSL 协议的邮箱配置为 true,否则为 false。注意: starttlsEnable 和 sslEnable 不能同时为 true
sslEnable="false"
# 邮件服务地址值,参考上面 mailServerHost
sslTrust="smtp.qq.com"
# 业务用到的比如 sql 等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为 HDFS,因为 HDFS 支持本地文件系统;如果不需要资源上传功能请选择 NONE。强调一点:使用本地文件系统不需要部署 hadoop
resourceStorageType="HDFS"
# 这里以保存到本地文件系统为例
# 注:但是如果你想上传到 HDFS 的话,NameNode 启用了 HA,则需要将 hadoop 的配置文件 core-site.xml 和 hdfs-site.xml 放到 conf 目录下,本例即是放到 /opt/dolphinscheduler/conf 下面,并配置 namenode cluster 名称;如果 NameNode 不是 HA,则修改为具体的 ip 或者主机名即可
defaultFS="file:///data/dolphinscheduler" #hdfs://{具体的ip/主机名}:8020
# 如果没有使用到 Yarn,保持以下默认值即可;如果 ResourceManager 是 HA,则配置为 ResourceManager 节点的主备 ip 或者 hostname,比如 "192.168.xx.xx,192.168.xx.xx" ;如果是单 ResourceManager 请配置 yarnHaIps="" 即可
# 注:依赖于yarn执行的任务,为了保证执行结果判断成功,需要确保yarn信息配置正确
yarnHaIps="192.168.xx.xx,192.168.xx.xx"
# 如果 ResourceManager 是 HA 或者没有使用到 Yarn 保持默认值即可;如果是单 ResourceManager,请配置真实的 ResourceManager 主机名或者 ip
singleYarnIp="yarnIp1"
# 资源上传根路径,支持 HDFS 和 S3,由于 hdfs 支持本地文件系统,需要确保本地文件夹存在且有读写权限
resourceUploadPath="/data/dolphinscheduler"
# 具备权限创建 resourceUploadPath的用户
hdfsRootUser="hdfs"
# 配置 api server port
apiServerPort="12345"
# 在哪些机器上部署 DS 服务,本机选 localhost
ips="localhost"
# ssh端口,默认22
sshPort="22"
# master服务部署在哪台机器上
masters="localhost"
# worker服务部署在哪台机器上,并指定此 worker 属于哪一个 worker 组,下面示例的 default 即为组名
workers="localhost:default"
# 报警服务部署在哪台机器上
alertServer="localhost"
# 后端api服务部署在在哪台机器上
apiServers="localhost"
创建本地资源上传目录
sudo mkdir /data/dolphinscheduler
sudo chown -R dolphinscheduler:dolphinscheduler /data/dolphinscheduler
7、一键部署
sh install.sh
注意:第一次部署的话,在运行中第3步 3,stop server 出现 5 次以下信息,此信息可以忽略
sh: bin/dolphinscheduler-daemon.sh: No such file or directory
脚本完成后,会启动以下 5 个服务,使用 jps 命令查看服务是否启动( jps 为 JDK 自带)
MasterServer ----- master服务
WorkerServer ----- worker服务
LoggerServer ----- logger服务
ApiApplicationServer ----- api服务
AlertServer ----- alert服务
如果以上服务都正常启动,说明自动部署成功
部署成功后,可以进行日志查看,日志统一存放于 logs 文件夹内
logs/
├── dolphinscheduler-alert-server.log
├── dolphinscheduler-master-server.log
|—— dolphinscheduler-worker-server.log
|—— dolphinscheduler-api-server.log
|—— dolphinscheduler-logger-server.log
8、登录系统
访问前端页面地址,接口 ip (自行修改) http://192.168.xx.xx:12345/dolphinscheduler
admin/dolphinscheduler123
9、启停服务
注意:一定要使用 dolphinscheduler 用户
sh ./bin/stop-all.sh
sh ./bin/start-all.sh
sh ./bin/dolphinscheduler-daemon.sh start master-server
sh ./bin/dolphinscheduler-daemon.sh stop master-server
sh ./bin/dolphinscheduler-daemon.sh start worker-server
sh ./bin/dolphinscheduler-daemon.sh stop worker-server
sh ./bin/dolphinscheduler-daemon.sh start api-server
sh ./bin/dolphinscheduler-daemon.sh stop api-server
sh ./bin/dolphinscheduler-daemon.sh start logger-server
sh ./bin/dolphinscheduler-daemon.sh stop logger-server
sh ./bin/dolphinscheduler-daemon.sh start alert-server
sh ./bin/dolphinscheduler-daemon.sh stop alert-server
|