1 Azkaban 概述
1.1 为什么需要工作流调度系统
一个完整的数据分析系统通常都是由大量任务单元组成:shell,java,mr、hive 等
各任务单元之间存在时间先后及前后依赖关系
为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行
image1.2 什么是 Azkaban?
Azkaban 是一个批量工作流任务调度器,主要用于在一个工作流内以一个特定的顺序运行一组工作和流程,它的配置是通过简单的 KV 对的方式,通过配置中的 dependencies 来设置依赖关系,Azkaban 使用 job 配置文件建立任务之间的依赖关系,并提供一个易于使用的 web 用户界面维护和跟踪你的工作流。
1.3 特点
- 兼容任何版本的 Hadoop
- 易于使用的 Web 用户界面
- 简单的工作流的上传
- 方便设置任务之间的关系
- 调度工作流
- 模块化和可插拔的插件机制
- 认证/授权(权限的工作)
- 能够杀死并重新启动工作流
- 有关失败和成功的电子邮件提醒
1.4 架构
image1、AzkabanWebServer:AzkabanWebServer 是整个 Azkaban 工作流系统的主要管理者,它用户登录认证、负责 project管理、定时执行工作流、跟踪工作流执行进度等一系列任务
2、AzkabanExecutorServer:负责具体的工作流的提交、执行,它们通过数据库来协调任务的执行
3、关系型数据库(MySQL):存储大部分执行流状态,AzkabanWebServer 和 AzkabanExecutorServer 都需要访问数据库
2 安装部署
1、在 /opt/module 目录下创建 azkaban 目录
[djm@hadoop102 module]$ mkdir azkaban
2、解压 azkaban-web-server-2.5.0.tar.gz、azkaban-executor-server-2.5.0.tar.gz、azkaban-sql-script-2.5.0.tar.gz
[djm@hadoop102 software]$ tar -zxvf azkaban-web-server-2.5.0.tar.gz -C /opt/module/azkaban/
[djm@hadoop102 software]$ tar -zxvf azkaban-executor-server-2.5.0.tar.gz -C /opt/module/azkaban/
[djm@hadoop102 software]$ tar -zxvf azkaban-sql-script-2.5.0.tar.gz -C /opt/module/azkaban/
3、对解压后的文件夹重命名
[djm@hadoop102 azkaban]$ mv azkaban-web-2.5.0/ server
[djm@hadoop102 azkaban]$ mv azkaban-executor-2.5.0/ executor
4、创建数据库并导入脚本
mysql> create database azkaban;
mysql> use azkaban;
mysql> source /opt/module/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql
5、生成密钥对和证书
Keytool 是 Java 数据证书的管理工具,使用户能够管理自己的公/私钥对及相关证书
-keystore:指定密钥库的名称及位置(产生的各类信息将存在.keystore文件中)
-genkey:生成密钥对
-alias:为生成的密钥对指定别名,如果没有默认是 mykey
-keyalg:指定密钥的算法 RSA/DSA 默认是 DSA
生成 keystore的密码及相应信息的密钥库
[djm@hadoop102 server]$ keytool -keystore keystore -alias jetty -genkey -keyalg RSA
6、配置时间同步服务器
7、进入 azkaban web 服务器安装目录 conf 目录,编辑 azkaban.properties
#Azkaban Personalization Settings
#服务器UI名称,用于服务器上方显示的名字
azkaban.name=Test
#描述
azkaban.label=My Local Azkaban
#UI颜色
azkaban.color=#FF3601
azkaban.default.servlet.path=/index
#默认web server存放web文件的目录
web.resource.dir=/opt/module/azkaban/server/web/
#默认时区,已改为亚洲/上海 默认为美国
default.timezone.id=Asia/Shanghai
#Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager
#用户权限管理默认类(绝对路径)
user.manager.xml.file=/opt/module/azkaban/server/conf/azkaban-users.xml
#Loader for projects
#global配置文件所在位置(绝对路径)
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects
#数据库类型
database.type=mysql
#端口号
mysql.port=3306
#数据库连接IP
mysql.host=hadoop102
#数据库实例名
mysql.database=azkaban
#数据库用户名
mysql.user=root
#数据库密码
mysql.password=123456
#最大连接数
mysql.numconnections=100
# Velocity dev mode
velocity.dev.mode=false
# Azkaban Jetty server properties.
# Jetty服务器属性.
#最大线程数
jetty.maxThreads=25
#Jetty SSL端口
jetty.ssl.port=8443
#Jetty端口
jetty.port=8081
#SSL文件名(绝对路径)
jetty.keystore=/opt/module/azkaban/server/keystore
#SSL文件密码
jetty.password=123456
#Jetty主密码与keystore文件相同
jetty.keypassword=123456
#SSL文件名(绝对路径)
jetty.truststore=/opt/module/azkaban/server/keystore
#SSL文件密码
jetty.trustpassword=123456
# Azkaban Executor settings
executor.port=12321
# mail settings
mail.sender=
mail.host=
job.failure.email=
job.success.email=
lockdown.create.projects=false
cache.directory=cache
8、在 azkaban web 服务器安装目录 conf 目录,编辑 azkaban-users.xml,增加管理员用户
<azkaban-users>
<user username="azkaban" password="azkaban" roles="admin" groups="azkaban" />
<user username="metrics" password="metrics" roles="metrics"/>
<user username="admin" password="admin" roles="admin,metrics"/>
<role name="admin" permissions="ADMIN" />
<role name="metrics" permissions="METRICS"/>
</azkaban-users>
9、进入执行服务器安装目录 conf,编辑 azkaban.properties
#Azkaban
#时区
default.timezone.id=Asia/Shanghai
# Azkaban JobTypes Plugins
#jobtype 插件所在位置
azkaban.jobtype.plugin.dir=plugins/jobtypes
#Loader for projects
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects
database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=root
mysql.password=123456
mysql.numconnections=100
# Azkaban Executor settings
#最大线程数
executor.maxThreads=50
#端口号(如修改,请与web服务中一致)
executor.port=12321
#线程数
executor.flow.threads=30
10、启动 executor
[djm@hadoop102 executor]$ bin/azkaban-executor-start.sh
11、启动 web
[djm@hadoop102 server]$ bin/azkaban-web-start.sh
12、访问 web 页面
3 实战案例
3.1 单 job
1、在本地创建一个 first.job
#first.job
type=command
command=echo 'this is my first job'
2、打成一个压缩包
3、创建工作流并上传文件
image image4、执行任务
image image3.2 多 job
1、在本地创建 start.job、step1.job、step2.job、end.job
#start.job
type=command
command=touch /opt/module/kangkang.txt
#step1.job
type=command
dependencies=start
command=echo "this is step1 job"
#step2.job
type=command
dependencies=start
command=echo "this is step2 job"
#end.job
type=command
dependencies=step1,step2
command=echo "this is end job"
2、打成压缩包
3、创建工作流并上传文件
4、执行任务
3.3 javaprocess
1、创建一个 Java 项目
package com.djm.azkaban;
import java.io.FileOutputStream;
import java.io.IOException;
public class AzkabanTest {
public void run() {
FileOutputStream fos = null;
try {
fos = new FileOutputStream("/opt/module/azkaban/output.txt");
fos.write("this is a java progress".getBytes());
} catch (IOException e) {
e.printStackTrace();
} finally {
try {
fos.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) {
AzkabanTest azkabanTest = new AzkabanTest();
azkabanTest.run();
}
}
2、打成 jar 包
3、创建 java.job
#java.job
type=javaprocess
java.class=com.djm.azkaban.AzkabanTest
classpath=./*
4、将 jar 和 job 一起打包
5、创建工作流并上传文件
6、执行任务
3.4 HDFS
1、创建 fs.job
#hdfs job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban
2、打成压缩包
3、创建工作流并上传文件
4、执行任务
3.4 MR
1、创建 mappreduce.job
#mapreduce job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop jar /opt/module/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output
2、打成压缩包
3、创建工作流并上传文件
4、执行任务
3.6 Hive
1、创建 student.sql
use default;
drop table student;
create table student(id int, name string)
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/datas/student.txt' into table student;
insert overwrite local directory '/opt/module/datas/student'
row format delimited fields terminated by '\t'
select * from student;
2、创建 hive.job
#hive job
type=command
command=/opt/module/hive/bin/hive -f ./student.sql
3、打成压缩包
4、创建工作流并上传文件
5、执行任务
网友评论