一、概述
在上一篇文章中,描述了如果使用源码对Azkaban进行编译并打包的过程,如果用户不想自己手动编译,可以直接下载笔者已经编译好的安装包,下载地址如下:
百度云链接:http://pan.baidu.com/s/1hs64HjI 密码:awv0
百度云安装包其中:
(1)azkaban.sql:Azkaban所需要的mysql表结构
(2)azkaban-solo-server-3.10.0.tar.gz:单机版azkaban安装包
(3)azkaban-web-server-3.10.0.tar.gz:集群版azkaban中的web服务端
(4)azkaban-exec-server-3.10.0.tar.gz:集群版azkaban中的执行服务端
(5)azkaban-jobtype-3.0.0.tar.gz:azkaban-plugin安装包
(6)azkaban-jobtype-3.0.0.jar:azkaban-plugin的jar依赖包
1、准备第三方运行框架的客户端
由于azkaban是运行mr、hive、spark等这些框架的,所以理所当然的需要在azkaban安装所在的机器把这些工程都准备好,并且能在部署azkaban的机器上正常运行,把环境变量配置好等。因为从功能上看,azkaban是这些框架的客户端而已。笔者所使用的四个组件版本信息如下:
(1) Hadoop: hadoop-2.6.0-cdh5.5.0.tar.gz
(2) Hive: hive-1.1.0-cdh5.5.5.tar.gz
(3) Spark: spark-2.0.2-bin-hadoop2.6.tar.gz
(4) Pig: pig-0.12.0-cdh5.5.0.tar.gz
把以上三个包解压到指定目录下,如 /home/hadoop/azkaban
修改各种配置文件,最终目标是能在配置的集群上能正常执行任务
2、准备mysql和对应的表结构
下图是官网给出的Azkaban结构图。从图中看出,Azkaban是使用mysql作为相关数据的存储的。
Azkaban的结构图
MySQL安装过程(略)
(1)进入MySQL命令行后,创建数据库:
CREATE DATABASE azkaban;
(2)创建用户名和密码:
CREATE USER 'username'@'%' IDENTIFIED BY 'password';
(3)给用户授权:
GRANT SELECT,INSERT,UPDATE,DELETE ON <database>.* to '<username>'@'%' WITH GRANT OPTION;
(4)导入SQL脚本 azkaban.sql
SOURCE azkaban.sql;
(5)检查下载包web和executor的lib文件下是否有mysql驱动,若不存在,则拷贝一个。
三、单机版安装
1、把azkaban-solo-server-3.10.0.tar.gz文件拷贝到指定目录,如/home/hadoop/azkaban,然后解压,解压后的目录内容如下。
azkaban-solo2、进入plugins目录,把里面的jobtypes目录删掉,拷贝azkaban-jobtype-3.0.0.tar.gz文件到该目录下,解压后重命名为jobtypes
3、进入jobtypes目录,把azkaban-jobtype-3.0.0.jar文件拷贝到该目录下
至此,jobtypes目录的内容如下:
jobtypes目录内容4、进入hive目录,编辑plugin.properties和private.properties文件,把hive.aux.jars.path属性的值修改为:
/usr/local/hive/lib
5、编辑common.properties文件,配置各个组件的环境变量
hadoop.home=/home/hadoop/hadoop
hive.home=/home/hadoop/hive
pig.home=/home/hadoop/pig
spark.home=/home/hadoop/spark
azkaban.home=/home/hadoop/azkaban/azkaban-solo-server-3.10.0
注意:路径要根据自己的配置进行修改
6、配置commonprivate.properties文件,配置如下:
#config jobtype classpath
jobtype.global.classpath=/usr/local/hadoop/etc/hadoop:/usr/local/hadoop/share/hadoop/common/*:/usr/local/hadoop/share/hadoop/common/lib/*:/usr/local/hadoop/share/hadoop/hdfs/*:/usr/local/hadoop/share/hadoop/hdfs/lib/*:/usr/local/hadoop/share/hadoop/yarn/*:/usr/local/hadoop/share/hadoop/yarn/lib/*:/usr/local/hadoop/share/hadoop/mapreduce/*:/usr/local/hadoop/share/hadoop/mapreduce/lib/*
#config hadoop classpath
hadoop.classpath=/usr/local/hadoop/etc/hadoop:/usr/local/hadoop/share/hadoop/common/*:/usr/local/hadoop/share/hadoop/common/lib/*:/usr/local/hadoop/share/hadoop/hdfs/*:/usr/local/hadoop/share/hadoop/hdfs/lib/*:/usr/local/hadoop/share/hadoop/yarn/*:/usr/local/hadoop/share/hadoop/yarn/lib/*:/usr/local/hadoop/share/hadoop/mapreduce/*:/usr/local/hadoop/share/hadoop/mapreduce/lib/*
# hadoop
hadoop.home=/home/hadoop/hadoop
hive.home=/home/hadoop/hive
pig.home=/home/hadoop/pig
spark.home=/home/hadoop/spark
azkaban.home=/home/hadoop/azkaban/azkaban-solo-server-3.10.0
#set execute use false
execute.as.user=false
其中jobtype.global.classpath和hadoop.classpath两个配置项中, /usr/local/hadoop 这个路径要改为自己环境下的路径
注意,/usr/local/hadoop/etc/hadoop后面不能加 /*
7、配置conf/azkaban.properties
default.timezone.id=Asia/Shanghai
#注释内置数据库h2的配置,改为mysql
#database.type=h2
#h2.path=./h2
#h2.create.tables=true
database.type=mysql
mysql.port=3306
mysql.host=10.1.2.xxx
mysql.database=azkaban
mysql.user=user
mysql.password=pass
mysql.numconnections=100
azkaban.webserver.url=http://10.1.2.xxx:8081
8、拷贝commons-configuration-1.6.jar和hadoop-common-2.6.0-cdh5.5.0.jar两个jar包到lib目录下
9、配置jdk版本为jdk8。编辑bin/azkaban-solo-start.sh,在第二行下加入以下配置
export PATH=/usr/local/jdk1.8.0_101/bin:$PATH
10、启动和关闭
进入azkaban-solo-server-3.10.0目录
启动: ./bin/azkaban-solo-start.sh
关闭:./bin/azkaban-solo-shutdown.sh
11、打开界面: http://ip:8081
azkaban界面用户名和密码默认都是 azkaban。至此,单机版azkaban安装完成。
四、集群版安装
机器及组件部署情况:
主机域名 | 主机IP | 安装组件 |
---|---|---|
decluster1 | 10.1.2.1 | azkaban-web |
decluster2 | 10.1.2.2 | azkaban-exec 和 azkaban-plugin |
decluster3 | 10.1.2.3 | mysql |
1、在decluster3上安装mysql,并导入azkaban.sql文件,过程跟单机版一样,不再详述。
2、在decluster2上准备hadoop、hive、spark、pig四个组件的客户端,也跟单机版的一致。
3、把 azkaban-exec-server-3.10.0.tar.gz 拷贝到decluster2上,解压到指定目录,如 /home/hadoop/azkaban目录下,然后再在该目录下创建名称为"plugins"的文件夹。这时候azkaban-exec只存在三个目录:
-- azkaban-exec-server-3.10.0
-- bin
-- conf
-- plugins
4、把 azkaban-jobtype-3.0.0.tar.gz 拷贝到 plugins 目录下,解压后重命名为:jobtypes,并把 azkaban-jobtype-3.0.0.jar 文件拷贝到 jobtypes目录下,完成后的效果如下:
集群版plugins目录情况5、配置 common.properties 和 commonprivate.properties 文件,过程和单机版的一样。
6、修改 conf/azkaban.properties 文件
# Azkaban Personalization Settings
azkaban.name=Dataeye
azkaban.label=Powered by DEDP
azkaban.color=#FF3601
web.resource.dir=web/
default.timezone.id=Asia/Shanghai
# Azkaban JobTypes Plugins
azkaban.jobtype.plugin.dir=plugins/jobtypes
# Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager
user.manager.xml.file=conf/azkaban-users.xml
# Loader for projects
executor.global.properties=conf/global.properties
azkaban.project.dir=projects
database.check.version=false
database.type=mysql
mysql.port=3306
mysql.host=10.1.2.3
mysql.database=azkaban
mysql.user=azkaban
mysql.password=azkaban
mysql.numconnections=100
# Velocity dev mode
velocity.dev.mode=false
# Azkaban Jetty server properties. Ignored in tomcat
jetty.use.ssl=false
jetty.ssl.port=8043
jetty.maxThreads=25
jetty.port=8081
# Azkaban Executor settings
executor.maxThreads=50
executor.port=12321
executor.flow.threads=30
azkaban.use.multiple.executors=true
# mail settings
mail.sender=emailname@163.com
mail.host=smtp.163.com
mail.user=username
mail.password=password
job.failure.email=
job.success.email=
lockdown.create.projects=false
azkaban.webserver.url=http://deazkaban.dataeye.com/
# JMX stats
jetty.connector.stats=true
executor.connector.stats=true
7、修改 bin/azkaban-executor-start.sh 文件,在第二行添加以下配置
export PATH=/home/hadoop2/azkaban/jdk1.8.0_101/bin:$PATH
8、把 azkaban-web-server-3.10.0.tar.gz 拷贝并解压到 decluster1的指定目录下,如 /home/hadoop/azkaban 目录
9、修改 bin/azkaban-web-start.sh 文件,在第二行添加以下配置
export PATH=/home/hadoop2/azkaban/jdk1.8.0_101/bin:$PATH
9、修改 conf/azkaban.properties 文件,各项配置跟exec的配置相同,只有一个地方有差异:
# Azkaban Executor settings
executor.port=12321
executor.host=decluster2
azkaban.use.multiple.executors=true
以上指定web跟exec通信的端口是 12321
以上步骤都完成后,分别在decluster1 和decluster2上启动azkaban的web组件和exec组件,如下:
在decluster1上执行: ./bin/azkaban-web-start.sh
在decluster2上执行: ./bin/azkaban-exec-start.sh
10、最后一步,也是最关键的一步:
打开mysql中的executors表,可以看到以下信息:
把active中的0,修改为1,如下:
exectors表信息至此,azkaban集群版安装完成,打开 http://10.1.2.1:8081 访问azkaban的web界面
转载请注明出处,谢谢!
作者:王彦鸿
QQ:845399683
网友评论