美文网首页
MapReduce 基础 (四)排序和序列化

MapReduce 基础 (四)排序和序列化

作者: 做个合格的大厂程序员 | 来源:发表于2020-06-17 11:10 被阅读0次
    • 序列化 (Serialization) 是指把结构化对象转化为字节流
    • 反序列化 (Deserialization) 是序列化的逆过程. 把字节流转为结构化对象. 当要在进程间传 递对象或持久化对象的时候, 就需要序列化对象成字节流, 反之当要将接收到或从磁盘读取 的字节流转换为对象, 就要进行反序列化
    • Java 的序列化 (Serializable) 是一个重量级序列化框架, 一个对象被序列化后, 会附带很多额 外的信息 (各种校验信息, header, 继承体系等), 不便于在网络中高效传输. 所以, Hadoop 自己开发了一套序列化机制(Writable), 精简高效. 不用像 Java 对象类一样传输多层的父子 关系, 需要哪个属性就传输哪个属性值, 大大的减少网络传输的开销
    • Writable 是 Hadoop 的序列化格式, Hadoop 定义了这样一个 Writable 接口. 一个类要支持可 序列化只需实现这个接口即可
    • 另外 Writable 有一个子接口是 WritableComparable, WritableComparable 是既可实现序列 化, 也可以对key进行比较, 我们这里可以通过自定义 Key 实现 WritableComparable 来实现 我们的排序功能

    数据格式如下

    a   1  
    a   9 
    b   3 
    a   7 
    b   8 
    b   10 
    a   5
    

    要求:

    1. 第一列按照字典顺序进行排列
    2. 第一列相同的时候, 第二列按照升序进行排列

    解决思路:

    1. 将 Map 端输出的 <key,value> 中的 key 和 value 组合成一个新的 key (newKey), value值 不变
    2. 这里就变成 <(key,value),value> , 在针对 newKey 排序的时候, 如果 key 相同, 就再对value进行排序

    step1: 自定义一个sortBean对象

    package cn.leon.sort;
    
    import org.apache.hadoop.io.WritableComparable;
    
    import java.io.DataInput;
    import java.io.DataOutput;
    import java.io.IOException;
    
    public class SortBean implements WritableComparable<SortBean> {
        private String word;
        private int num;
    
        public String getWord() {
            return word;
        }
    
        public void setWord(String word) {
            this.word = word;
        }
    
        public int getNum() {
            return num;
        }
    
        public void setNum(int num) {
            this.num = num;
        }
    
        @Override
        public String toString() {
            return word + "\t" + num;
        }
    
        //实现比较器,指定排序的规则
        /*
          规则:
            第一列(word)按照字典顺序进行排列    //  aac   aad
            第一列相同的时候, 第二列(num)按照升序进行排列
         */
        @Override
        public int compareTo(SortBean sortBean) {
            //先对第一列排序: Word排序
            int result = this.word.compareTo(sortBean.word);
            //如果第一列相同,则按照第二列进行排序
            if(result == 0){
                return  this.num - sortBean.num;
            }
            return result;
        }
    
    
        //序列化
        @Override
        public void write(DataOutput dataOutput) throws IOException {
            dataOutput.writeUTF(word);
            dataOutput.writeInt(num);
        }
    
        //反序列化
        @Override
        public void readFields(DataInput dataInput) throws IOException {
            this.word = dataInput.readUTF();
            this.num = dataInput.readInt();
        }
    }
    

    step1: Mapper

    package cn.leon.sort;
    
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    import java.io.IOException;
    
    public class SortMapper extends Mapper<LongWritable,Text,SortBean,NullWritable> {
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
            //1:将行文本数据(V1)拆分,并将数据封装到SortBean对象,就可以得到K2
            String[] split = value.toString().split("\t");
    
            SortBean sortBean = new SortBean();
            sortBean.setWord(split[0]);
            sortBean.setNum(Integer.parseInt(split[1]));
    
            //2:将K2和V2写入上下文中
            context.write(sortBean, NullWritable.get());
        }
    }
    

    step3: Reducer

    因为定义了sortBean对象去处理排序,所以在Reducer中我们直接就输出即可。

    package cn.leon.sort;
    
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import java.io.IOException;
    
    public class SortReducer extends Reducer<SortBean, NullWritable,SortBean,NullWritable> {
    
        @Override
        protected void reduce(SortBean key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
            context.write(key,NullWritable.get());
        }
    }
    

    setp4 : JobMain

    package cn.leon.sort;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.conf.Configured;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    import org.apache.hadoop.util.Tool;
    import org.apache.hadoop.util.ToolRunner;
    
    import java.net.URI;
    
    public class JobMain extends Configured implements Tool {
    
        @Override
        public int run(String[] strings) throws Exception {
    
            //1.创建job对象
            Job job = Job.getInstance(super.getConf(),"sort_mapReduce");
    
            //2.创建job任务
    
            //第一步:设置输入类和输入路径
            job.setInputFormatClass(TextInputFormat.class);
            TextInputFormat.addInputPath(job,new Path("hdfs://node1:8020/sort/input"));
    
            //第二步:设置Mapper类和数据类型
            job.setMapperClass(SortMapper.class);
            job.setMapOutputKeyClass(SortBean.class);
            job.setMapOutputValueClass(NullWritable.class);
    
            //第四步:sort,排序
    
            //第七步:设置Reducer类的和数据类型
            job.setReducerClass(SortReducer.class);
            job.setOutputKeyClass(SortBean.class);
            job.setOutputValueClass(NullWritable.class);
    
            //第八步:设置输出类型和路径
            Path path = new Path("hdfs://node1:8020/sort/output");
            job.setOutputFormatClass(TextOutputFormat.class);
            TextOutputFormat.setOutputPath(job,path);
    
            FileSystem fileSystem = FileSystem.get(new URI("hdfs://node1:8020/sort/output"),new Configuration());
            if (fileSystem.exists(path)){
                fileSystem.delete(path,true);
            }
    
            //3.等待任务结束
    
            boolean bl = job.waitForCompletion(true);
    
            return bl?0:1;
        }
    
        public static void main(String[] args) throws Exception{
            Configuration configuration = new Configuration();
    
            int run = ToolRunner.run(configuration, new JobMain(), args);
    
            System.exit(run);
        }
    }
    

    相关文章

      网友评论

          本文标题:MapReduce 基础 (四)排序和序列化

          本文链接:https://www.haomeiwen.com/subject/fdwjxktx.html