美文网首页
Azkaban实战

Azkaban实战

作者: 大数据小同学 | 来源:发表于2020-07-20 09:05 被阅读0次

    Azkaba内置的任务类型支持command、java

    单一job案例

    创建job描述文件

    [liujh@hadoop102 jobs]$ vim first.job
    #first.job
    type=command
    command=echo 'this is my first job'
    

    将job资源文件打包成zip文件

    [liujh@hadoop102 jobs]$ zip first.zip first.job 
      adding: first.job (deflated 15%)
    [liujh@hadoop102 jobs]$ ll
    总用量 8
    -rw-rw-r--. 1 liujh liujh 60 10月 18 17:42 first.job
    -rw-rw-r--. 1  liujh liujh 219 10月 18 17:43 first.zip
    

    注意:
    目前,Azkaban上传的工作流文件只支持xxx.zip文件。zip应包含xxx.job运行作业所需的文件和任何文件(文件名后缀必须以.job结尾,否则无法识别)。作业名称在项目中必须是唯一的。

    通过azkaban的web管理平台创建project并上传job的zip包

    首先创建project


    image.png

    上传zip包


    image.png

    启动执行该job

    image.png

    点击执行工作流


    image.png

    点击继续


    image

    Job执行成功

    点击查看job日志

    多job工作流案例

    创建有依赖关系的多个job描述

    第一个job:start.job

    [liujh@hadoop102 jobs]$ vim start.job
    #start.job
    type=command
    command=touch /opt/module/kangkang.txt
    

    第二个job:step1.job依赖start.job

    [liujh@hadoop102 jobs]$ vim step1.job
    #step1.job
    type=command
    dependencies=start
    command=echo "this is step1 job"
    

    第三个job:step2.job依赖start.job

    [liujh@hadoop102 jobs]$ vim step2.job
    #step2.job
    type=command
    dependencies=start
    command=echo "this is step2 job"
    

    第四个job:finish.job依赖step1.job和step2.job

    [liujh@hadoop102 jobs]$ vim finish.job
    #finish.job
    type=command
    dependencies=step1,step2
    command=echo "this is finish job"
    

    将所有job资源文件打到一个zip包中

    updating: start.job (deflated 16%)
      adding: step1.job (deflated 12%)
      adding: step2.job (deflated 12%)
      adding: finish.job (deflated 14%) 
    

    在azkaban的web管理界面创建工程并上传zip包

    启动工作流flow

    image

    查看结果

    思考:
    将student.txt文件上传到hdfs,根据所传文件创建外部表,再将表中查询到的结果写入到本地文件

    java操作任务

    使用Azkaban调度java程序

    编写java程序

    import java.io.IOException;
    
    public class AzkabanTest {
        public void run() throws IOException {
            // 根据需求编写具体代码
            FileOutputStream fos = new FileOutputStream("/opt/module/azkaban/output.txt");
            fos.write("this is a java progress".getBytes());
            fos.close();
        }
        public static void main(String[] args) throws IOException {
            AzkabanTest azkabanTest = new AzkabanTest();
            azkabanTest.run();
        }
    }
    

    将java程序打成jar包,创建lib目录,将jar放入lib内

    [liujh@hadoop102 azkaban]$ mkdir lib
    [liujh@hadoop102 azkaban]$ cd lib/
    [liujh@hadoop102 lib]$ ll
    总用量 4
    -rw-rw-r--. 1 liujh liujh 3355 10月 18 20:55 azkaban-0.0.1-SNAPSHOT.jar
    

    编写job文件

    [liujh@hadoop102 jobs]$ vim azkabanJava.job
    #azkabanJava.job
    type=javaprocess
    java.class=com.liujh.azkaban.AzkabanTest
    classpath=/opt/module/azkaban/lib/*
    

    将job文件打成zip包

    [liujh@hadoop102 jobs]$ zip azkabanJava.zip azkabanJava.job 
      adding: azkabanJava.job (deflated 19%)
    

    通过azkaban的web管理平台创建project并上传job压缩包,启动执行该job

    [liujh@hadoop102 azkaban]$ pwd
    /opt/module/azkaban
    [liujh@hadoop102 azkaban]$ ll
    总用量 24
    drwxrwxr-x.  2 liujh liujh 4096 10月 17 17:14 azkaban-2.5.0
    drwxrwxr-x. 10 liujh  liujh 4096 10月 18 17:17 executor
    drwxrwxr-x.  2 liujh liujh 4096 10月 18 20:35 jobs
    drwxrwxr-x.  2 liujh liujh 4096 10月 18 20:54 lib
    -rw-rw-r--.  1 liujh liujh 23 10月 18 20:55 output
    drwxrwxr-x.  9 liujh liujh 4096 10月 18 17:17 server
    [liujh@hadoop102 azkaban]$ cat output 
    this is a java progress
    

    HDFS操作任务

    1. 创建job描述文件
    [liujh@hadoop102 jobs]$ vim fs.job
    #hdfs job
    type=command
    command=/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban
    
    1. 将job资源文件打包成zip文件
    [liujh@hadoop102 jobs]$ zip fs.zip fs.job 
      adding: fs.job (deflated 12%)
    
    1. 通过azkaban的web管理平台创建project并上传job压缩包
    2. 启动执行该job
    3. 查看结果


      image.png

    mapreduce任务

    mapreduce任务依然可以使用azkaban进行调度

    1. 创建job描述文件,及mr程序jar包
    [liujh@hadoop102 jobs]$ vim mapreduce.job
    #mapreduce job
    type=command
    command=/opt/module/hadoop-2.7.2/bin/hadoop jar /opt/module/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output
    
    1. 将所有job资源文件打到一个zip包中
    [liujh@hadoop102 jobs]$ zip mapreduce.zip mapreduce.job 
      adding: mapreduce.job (deflated 43%)
    
    1. 在azkaban的web管理界面创建工程并上传zip包
    2. 启动job
    3. 查看结果


    Hive脚本任务

    创建job描述文件和hive脚本

    1. Hive脚本:student.sql
    [liujh@hadoop102 jobs]$ vim student.sql
    use default;
    drop table student;
    create table student(id int, name string)
    row format delimited fields terminated by '\t';
    load data local inpath '/opt/module/datas/student.txt' into table student;
    insert overwrite local directory '/opt/module/datas/student'
    row format delimited fields terminated by '\t'
    select * from student;
    
    1. Job描述文件:hive.job
    [liujh@hadoop102 jobs]$ vim hive.job
    #hive job
    type=command
    command=/opt/module/hive/bin/hive -f /opt/module/azkaban/jobs/student.sql
    

    将所有job资源文件打到一个zip包中

    [liujh@hadoop102 jobs]$ zip hive.zip hive.job 
      adding: hive.job (deflated 21%)
    

    在azkaban的web管理界面创建工程并上传zip包

    启动job

    查看结果

    [liujh@hadoop102 student]$ cat /opt/module/datas/student/000000_0 
    1001    yangyang
    1002    huihui
    1003    banzhang
    1004    pengpeng
    
    关注微信公众号
    简书:https://www.jianshu.com/u/0278602aea1d
    CSDN:https://blog.csdn.net/u012387141

    相关文章

      网友评论

          本文标题:Azkaban实战

          本文链接:https://www.haomeiwen.com/subject/yjioyhtx.html