hadoop (七)高级编程

hadoop (七)高级编程

MapReduce过程

  1. 输入(input):将输入数据分成一个个split,并将split进一步拆除<key,value>的形式。
  2. 映射(map):根据输入的<key,value>进行处理
  3. 合并(combiner):合并中间相同的key值。
  4. 分区(partition):将<key,value>分成N分,分别送到下一个环节。
  5. 化简(reduce):将中间结果合并,得到最终结果。
  6. 输出(output):负责输出最终结果。

其中3和4又称之为"洗牌"的过程。

从上述Word Count实例中,我们只是去个性化了 map 和 reduce 的过程。 combiner复用的reduce。下面我们来看下各个过程是如何自定义的。

自定义输入格式

输入格式(InputFormat)用于描述整个MapReduce作业的数据输入规范。先对输入的文件进行格式规范检查,如输入路径,后缀等检查;然后对数据文件进行输入分块(split);再对数据块逐一读出;最后转换成Map所需要的<key, value>健值对。

系统中提供丰富的预置输入格式。最常用的以下两种:

TextInputFormat:系统默认的数据输入格式。将文件分块,并逐行读入,每一行记录行成一对<key, value>。其中,key值为当前行在整个文件中的偏移量,value值为这一行的文本内容。

KeyValueTextInputFormat:这是另一个常用的数据输入格式,读入的文本文件内容要求是以<key, value>形式。读出的结果也就直接形成<key, value>送入map函数中。

如果选择输入格式呢?那就只要在job函数中调用

job.setInputFormatClass(TextInputFormat.class);

在Hello中我们没有设定,系统默认选择了TextInputFormat。

一般情况够用了,但某些情况下,还是无法满足用户的需求,所以还是需要个性化。个性化则按下面的方式进行:

如果数据我们是来源于文件,则可以继承FileInputFormat:

public class MyInputFormat extends FileInputFormat<Text,Text> {
   @Override
   public RecordReader<Text, Text> createRecordReader(InputSplit split,
 TaskAttemptContext context) throws IOException, InterruptedException {
    return null;
   }
}

如果数据我们是来源于非文件,如关系数据,则继承

public class MyInputFormat extends InputFormat<Text,Text> {
 
   @Override
   public RecordReader<Text, Text> createRecordReader(InputSplit arg0,
     TaskAttemptContext arg1) throws IOException, InterruptedException {
      // TODO Auto-generated method stub
      return null;
   }
 
   @Override
   public List<InputSplit> getSplits(JobContext arg0) throws IOException,
     InterruptedException {
      // TODO Auto-generated method stub
      return null;
   }
 
}

这里比较清晰了,下面个函数为拆分成split,上面个函数跟据split输出成Key,value。

定义map处理

这个好理解,我们的HelloWorld程序中就自定义了map处理函数。然后在job中指定了我们的处理类:

job.setMapperClass(TokenizerMapper.class);
能不能没有map呢? 可以的,如果没有map,也就是这与上面的这个setMapperClass,则系统自动指定一个null,这时处理是将输入的<key,value>值,不作任何修改,直接送到下一环节中。

个性化代码如下:

public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{
 
    public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
     
        context.write(key, value);
    }
}

自定义合并Combiner

自定义合并Combiner类,主要目的是减少Map阶段输出中间结果的数据量,降低数据的网络传输开销。

Combine过程,实际跟Reduce过程相似,只是执行不同,Reduce是在Reducer环节运行,而Combine是紧跟着Map之后,在同一台机器上预先将结时进行一轮合并,以减少送到Reducer的数据量。所以在HelloWorld时,可以看到,Combiner和Reducer用的是同一个类:

job.setCombinerClass(IntSumReducer.class);
job.setReducerClass(IntSumReducer.class);

如何个性化呢,这个跟Reducer差不多了:

public static class MyCombiner extends Reducer<Text,IntWritable,Text,IntWritable{
 
   public void reduce(Text key, Iterable<IntWritablevalues,Context context) throws IOException, InterruptedException {
 
    context.write(key, new IntWritable(1));
   }
 }

自定义分区Partitioner

在MapReduce程序中,Partitioner决定着Map节点的输出将被分区到哪个Reduce节点。而默认的Partitioner是HashPartitioner,它根据每条数据记录的主健值进行Hash操作,获得一个非负整数的Hash码,然后用当前作业的Reduce节点数取模运算,有N个结点的话,就会平均分配置到N个节点上,一个隔一个依次。大多情况下这个平均分配是够用了,但也会有一些特殊情况,比如某个文件的,不能被拆开到两个结点中,这样就需要个性化了。

个性化方式如下:

public static class MyPartitioner extends HashPartitioner<K,V> {
 
   public void getPartition(K key, V value,int numReduceTasks) {
 
        super.getPartition(key,value,numReduceTasks);
   }
 }

方式其实就是在执行之前可以改变一下key,来欺骗这个hash表。

自定义化简(Reducer)

这一块是将Map送来的结果进行化简处理,并形成最终的输出值。与前面map一样,在HelloWorld中我们就见到过了。通过下面代码可以设置其值:

job.setReducerClass(IntSumReducer.class);
同样,也可以这样类可以不设置,如果不设置的话,就是把前面送来的值,直接送向输出格式器中。

如果要个性化,则如下:

  public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {
 
      public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
            context.write(key, result);
      }
  }

自定义输出格式

数据输出格式(OutPutFormat)用于描述MapReduce作业的数据输出规范。Hadoop提供了丰富的内置数据输出格式。最常的数据输出格式是TextOutputFormat,也是系统默认的数据输出格式,将结果以"key+\t+value"的形式逐行输出到文本文件中。还有其它的,如:DBOutputFormat,FileOutputFormat,FilterOutputFormat,IndexUpdataOutputFormat,LazyOutputFormat,MapFileOutputFormat,等等。

如果要个性化,则按下面方式进行:

public class MyOutputFormat extends OutputFormat<Text,Text> {
 
   @Override
   public void checkOutputSpecs(JobContext arg0) throws IOException,
     InterruptedException {
      // TODO Auto-generated method stub
 
   }
 
   @Override
   public OutputCommitter getOutputCommitter(TaskAttemptContext arg0)
     throws IOException, InterruptedException {
      // TODO Auto-generated method stub
      return null;
   }
 
   @Override
   public RecordWriter<Text, Text> getRecordWriter(TaskAttemptContext arg0)
     throws IOException, InterruptedException {
      // TODO Auto-generated method stub
      return null;
   }
 
}

复合健——用户自定义类型。

从前面的整个过程中可以看到,都是采用key-value的方式进行传入传出,而这些类型大多是单一的字符串,和整型。如果我的key中需要包含多个信息怎么办?用字符串直接拼接么? 太不方便了,最好能够自己定义一个类,作为这个key,这样就方便了。

如果定义一个类作为key 或value的类型? 有什么要求?就是这个类型必须要继承WritableComparable<T>这个类,所以如果要自定义一个类型则可以这么实现:

public class MyType implements WritableComparable<MyType> {
 
   private float x,y;
   public float GetX(){return x;}
   public float GetY(){return y;}
 
  @Override
  public void readFields(DataInput in) throws IOException {
     x = in.readFloat();
     y = in.readFloat();
  }
 
  @Override
  public void write(DataOutput out) throws IOException {
     out.writeFloat(x);
     out.writeFloat(y);
  }
 
  @Override
  public int compareTo(MyType arg0) {
     //输入:-1(小于) 0(等于) 1(大于)
     return 0;
  }
}

这个示例中,我们添加了两个float变量:x,y 。 这个信息能过int 和out按次序进行输入输出。最后,再实现一个比较函数即可。

Job任务的创建

   Job job = new Job(conf, "word count");
   job.setJarByClass(WordCount.class);
   job.setInputFormatClass(MyInputFormat.class);
   job.setMapperClass(TokenizerMapper.class);
   job.setCombinerClass(IntSumReducer.class);
   job.setPartitionerClass(MyPartitioner.class);
   job.setReducerClass(IntSumReducer.class);
   job.setOutputFormatClass(TextOutputFormat.class);
   job.setOutputKeyClass(Text.class);
   job.setOutputValueClass(IntWritable.class);
   FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
   FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

任务创建比较容易,其实就是new一个实例,然后把上面描述的过程类设置好,然后加上第2行中,jar包的主类,第10、11行的输入输出路径。这样就完事了。

Job任务的执行

单个任务的执行,没有什么问题,可以用这个:

job.waitForCompletion(true);

但多个任务呢? 多个任务的话,就会形成其组织方式,有串行,有并行,有无关,有组合的,如下图:


image

图中,Job2和Job3将会等Job1执行完了再执行,且可以同时开始,而Job4必须等Job2和Job3同时结束后才结束。

这个组合,就可以采用这样的代码来实现:

  Configuration conf = new Configuration();
  Job job1 = new Job(conf, "job1");
  //.. config Job1
  Job job2 = new Job(conf, "job2");
  //.. config Job2
  Job job3 = new Job(conf, "job3");
  //.. config Job3
  Job job4 = new Job(conf, "job4");
  //.. config Job4
 
  //添加依赖关系
  job2.addDependingJob(job1);
  job3.addDependingJob(job1);
  job4.addDependingJob(job2);
  job4.addDependingJob(job3);
 
  JobControl jc = new JobControl("jbo name");
  jc.addJob(job1);
  jc.addJob(job2);
  jc.addJob(job3);
  jc.addJob(job4);
  jc.run();

总述

现在回头看看,其实整个hadoop编程,也就是这几块内容了,要实现某个功能,我们就往上面这些步骤上套,然后联起来执行,达到我们的目的。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,670评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,928评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,926评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,238评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,112评论 4 356
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,138评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,545评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,232评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,496评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,596评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,369评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,226评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,600评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,906评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,185评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,516评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,721评论 2 335

推荐阅读更多精彩内容