Hive中UDF练习

作者: 心_的方向 | 来源:发表于2016-11-09 09:58 被阅读1106次

学习UDF编写流程见:http://www.jianshu.com/p/ff0913045610

1.截取请求地址


Paste_Image.png

代码:

package hiveUDF;

import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;

/**
 * 
 * 从 "GET /course/view.php?id=27 HTTP/1.1" 中获取请求地址,即 /course/view.php?id=27
 * 
 */
public class TruncationRequestAdd extends UDF {

    public Text evaluate(Text add) {
        // 过滤
        if (add == null) {
            return null;
        }
        // 按照空格分割
        String[] strings = add.toString().split(" ");
        // 过滤分割后长度小于3的字符
        if (strings.length < 3) {
            return null;
        }
        // 设置返回的结果
        Text result = new Text(strings[1]);
        return result;
    }
}
  1. 截取主地址


    Paste_Image.png

代码:

package hiveUDF;

import java.util.regex.Matcher;
import java.util.regex.Pattern;

import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;
/**
 * 
 * 从"http://www.ibeifeng.com/user.php?act=mycourse"提取主地址,即"http://www.ibeifeng.com"
 *
 */
public class TruncationMainAdd extends UDF {

    public Text evaluate(Text add) {
        // 过滤为null的输入
        if (add == null) {
            return null;
        }

        String address = add.toString();
        // 过滤不是http://开头的输入
        if (!address.startsWith("http://")) {
            return null;
        }
        // 模式匹配
        Pattern p = Pattern.compile("http://[^/]+(/\\S*)");
        Matcher m = p.matcher(address);
        // 获取分组 即 /user.php?act=mycourse
        String s = null;
        if (m.find()) {
            s = m.group(1);
        }
        // 索引
        int index = address.lastIndexOf(s);
        // 截取
        address = address.substring(0, index);

        // 结果
        Text result = new Text();
        // 构造结果
        result.set(address);
        return result;
    }
}
  1. 转换日期格式
    把日期格式为: "31/Aug/2015:00:04:37 +0800"
    转换为: "2015-08-31 00:04:37"

代码:

package hiveUDF;

import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.Locale;

import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;

/**
 * 把格式为: "31/Aug/2015:00:04:37 +0800" 转换为: "2015-08-31 00:04:37"
 */
public class DateTransform extends UDF {
    private final SimpleDateFormat inputFormat = new SimpleDateFormat("dd/MMM/yyyy:HH:mm:ss", Locale.ENGLISH);
    private final SimpleDateFormat outputFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");

    public Text evaluate(Text input) {
        // 过滤
        if (input == null) {
            return null;
        }

        Text output = new Text();
        String inputDate = input.toString();

        try {
            // parse
            Date parseDate = inputFormat.parse(inputDate);
            // format
            String outputDate = outputFormat.format(parseDate);
            // set
            output.set(outputDate);
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
        return output;
    }
}

相关文章

  • Hive中UDF练习

    学习UDF编写流程见:http://www.jianshu.com/p/ff0913045610 1.截取请求地址...

  • Hive从入门到精通8:Hive自定义函数(UDF)

    1.什么是Hive UDF? Hive中的用户自定义函数(即User Defined Function,简称UDF...

  • Hive- UDF&GenericUDF

    hive udf简介 在Hive中,用户可以自定义一些函数,用于扩展HiveQL的功能,而这类函数叫做UDF(用户...

  • 学习中的关键的问题

    hive中的topn操作需要使用到hive的窗口函数执行操作的。 spark的udf可以实现自定义的udf的函数的...

  • java读取hive的orc文件

    hive API2hive udf 读取HDFS的orc文件

  • hive中UDF和UDAF使用说明

    Hive进行UDF开发十分简单,此处所说UDF为Temporary的function,所以需要hive版本在0.4...

  • hive积累大全

    此篇内容:hive自定义函数UDF、UDTF,压缩存储方式,hive优化、hive实际编程SQL中的if表达式用法...

  • Hive中UDF编程

    UDF介绍及编程要点 Hive中自带了许多函数,方便数据的处理分析。但是有时候没有内部的函数来提供想要的功能,需要...

  • Hive中UDAF的实现方式调研

    UDAF在Hive中实现主要有两种,类似于UDF: 继承org.apache.hadoop.hive.ql.exe...

  • 【Hive】Hive UDF

    [TOC] 一、UDF 介绍 UDF(User-Defined Functions)即是用户自定义的hive函数。...

网友评论

    本文标题:Hive中UDF练习

    本文链接:https://www.haomeiwen.com/subject/mshzuttx.html