美文网首页
MR求平均demo

MR求平均demo

作者: 还闹不闹 | 来源:发表于2020-04-02 21:14 被阅读0次

    1、需求描述

    对输入文件中数据进行求算学生平均成绩。
    输入文件中的每行内容均为一个学生的姓名和他相应的成绩,如果有多门学科,则每门学科为一个文件。
    要求在输出中每行有2个间隔的数据,其中,第一个代表学生的姓名,第二个代表其平均成绩。

    math.txt
    张三 88
    李四 99
    王五 66
    赵六 77

    chinese.txt
    张三 78
    李四 89
    王五 96
    赵六 67

    english.txt
    张三 80
    李四 82
    王五 84
    赵六 86

    2、设计

    计算学生平均成绩是一个仿"WordCount"例子,用来重温一下开发MapReduce程序的流程。程序包括两部分的内容:Map部分和Reduce部分,分别实现了map和reduce的功能。
    Map处理的是一个纯文本文件,文件中存放的数据时每一行代表一个学生的姓名和他相应一科成绩。
    Mapper处理的数据是由InputFormat分解过的数据集,其中InputFormat的作用是将数据集切割成小数据集InputSplit,每一个InputSlit将由一个Mapper负责处理。此外,InputFormat中还提供了一个RecordReader的实现,并将一个InputSplit解析成<key,value>对提供给了map函数。InputFormat的默认值是TextInputFormat,它针对文本文件,按行将文本切割成InputSlit,并用LineRecordReader将InputSplit解析成<key,value>对,key是行在文本中的位置,value是文件中的一行。
    Map的结果会通过partion分发到Reducer,Reducer做完Reduce操作后,将通过以格式OutputFormat输出。
    Mapper最终处理的结果对<key,value>,会送到Reducer中进行合并,合并的时候,有相同key的键/值对则送到同一个Reducer上。Reducer是所有用户定制Reducer类地基础,它的输入是key和这个key对应的所有value的一个迭代器,同时还有Reducer的上下文。Reduce的结果由Reducer.Context的write方法输出到文件中。

    3、代码

    import java.io.IOException;
    
    import java.util.Iterator;
    import java.util.StringTokenizer;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.Mapper;
    import org.apache.hadoop.mapreduce.Reducer;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    
    import org.apache.hadoop.util.GenericOptionsParser;
    
    public class Score {
        public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
            // 实现map函数
            public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
                // 将输入的纯文本文件的数据转化成String
                String str = value.toString();
                // 将输入的数据首先按行进行分割
                StringTokenizer tokenizerArticle = new StringTokenizer(str, "\n");
                
                // 分别对每一行进行处理
                while (tokenizerArticle.hasMoreElements()) {
                    // 每行按空格划分
                    StringTokenizer tokenizerLine = new StringTokenizer(tokenizerArticle.nextToken());
                    String strName = tokenizerLine.nextToken();// 学生姓名部分
                    String strScore = tokenizerLine.nextToken();// 成绩部分
                    Text name = new Text(strName);
                    int scoreInt = Integer.parseInt(strScore);
                    // 输出姓名和成绩
                    context.write(name, new IntWritable(scoreInt));
                }
            }
        }
        
        public static class Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {
            // 实现reduce函数
            public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
                int sum = 0;
                int count = 0;
                Iterator<IntWritable> iterator = values.iterator();
                while (iterator.hasNext()) {
                    sum += iterator.next().get();// 计算总分
                    count++;// 统计总的科目数
                }
                int average = (int) sum / count;// 计算平均成绩
                context.write(key, new IntWritable(average));
            }
        }
        
        public static void main(String[] args) throws Exception {
    //      权限问题 设置hadoop用户
    //      System.setProperty("HADOOP_USER_NAME", "root");
    //      创建配置对象
            Configuration conf = new Configuration();
            // 这句话很关键
    //        conf.set("mapred.job.tracker", "192.168.1.2:9001");
    //      设置输入输出参数
            String[] ioArgs = new String[] { "score_in", "score_out" };
    //        设置其它参数
            String[] otherArgs = new GenericOptionsParser(conf, ioArgs).getRemainingArgs();
    //        校验输入参数
            if (otherArgs.length != 2) {
                System.err.println("Usage: Score Average <in> <out>");
                System.exit(2);
            }
    //        创建Job对象
            Job job = Job.getInstance(conf, "score average");
    //        Job job = new Job(conf, "Score Average");
    //        设置运行job的类
            job.setJarByClass(Score.class);
    //        指定reduce数量
            job.setNumReduceTasks(1);
            // 设置Map、Combine和Reduce处理类
            job.setMapperClass(Map.class);
            job.setCombinerClass(Reduce.class);
            job.setReducerClass(Reduce.class);
    //      设置map输出的key value
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(IntWritable.class);
    //      设置reduce输出类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(IntWritable.class);
            // 将输入的数据集分割成小数据块splites,提供一个RecordReder的实现
            job.setInputFormatClass(TextInputFormat.class);
            // 提供一个RecordWriter的实现,负责数据输出
            job.setOutputFormatClass(TextOutputFormat.class);
            // 设置输入和输出目录
    //        FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    //        FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
            FileInputFormat.addInputPath(job, new Path(args[0]));
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
    //        提交job
            System.exit(job.waitForCompletion(true) ? 0 : 1);
        }
    }
    

    4、输出结果

    张三 82
    李四 90
    王五 82
    赵六 76

    相关文章

      网友评论

          本文标题:MR求平均demo

          本文链接:https://www.haomeiwen.com/subject/luifphtx.html