使用kettle执行mapreduce

使用kettle执行mapreduce#

机器:192.168.9.157 10G内存,4核CPU,centos6.5

hadoop版本:2.7.3

pdi:8.0

目的

使用pdi工具实现运行mapreduce的wordcount程序,不需要写任何java代码从而简化开发人员的工作量。

参考文档

http://www.pentaho.com/sites/default/files/webdetails-pentaho-evalpath/pdf/evaluation-experiences-pdf/EL7_PentahoMapReduce.pdf

https://wiki.pentaho.com/display/BAD/Using+Pentaho+MapReduce+to+Parse+Weblog+Data

https://wiki.pentaho.com/display/BAD/Using+Pentaho+MapReduce+to+Generate+an+Aggregate+Dataset/

准备工作

选择对应的hadoop发行版

image

hadoop cluster集群配置

image

这里jobtracker实际上应该叫resourcemanger,在hadoop2.x的yarn中已经没有jobtracker概念了。
这个值与yarn-site.xml中yarn.resourcemanager.address对应。

修改config.properties

修改kettle\pdi-ce-8.0.0.0-28\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp26\config.properties增加一行

authentication.superuser.provider=NO_AUTH

复制集群上的mapred-site.xml

复制集群上mapred-site.xml到\kettle\pdi-ce-8.0.0.0-28\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\cdh512。如果在windows上提交任务需要增加mapreduce.app-submission.cross-platform配置。mapreduce.reduce.memory.mb,mapreduce.map.memory.mb 这两个值设置了每个container所需要的内存资源,java.opts一般设置memory.mb*0.8.

<configuration>
    <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
    </property>

    <property> 
        <name>mapreduce.app-submission.cross-platform</name>
        <value>true</value>
    </property>
<property> 
    <name>mapreduce.reduce.memory.mb</name>
    <value>1024</value>
</property>


<property> 
        <name>mapreduce.map.memory.mb</name>
        <value>1024</value>
</property>

<property> 
    <name>mapreduce.map.java.opts</name>
    <value>-Xmx800m</value>
 </property>
 
<property> 
    <name>mapreduce.reduce.java.opts</name>
    <value>-Xmx800m</value>
    </property>
</configuration>

复制集群上的yarn-site.xml

复制集群上yarn-site.xml到\kettle\pdi-ce-8.0.0.0-28\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\cdh512。
修改hostname为对应主机的地址,或者在本机配置host。
一定要配置yarn.nodemanager.resource.memory-mb,尽量配置大一点,这里配置了8G,因为nodemanager启动一个container就需约1.5G内存,如果给nodemanager的内存不够大,将会导致无法启动container从而无法运行mapreduce。

<configuration>
    <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
     </property>
     
     <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>192.168.9.157</value>
    </property>
     
     <property>
        <name>yarn.nodemanager.hostname</name>
        <value>192.168.9.157</value>
    </property> 
        
        
     <property>
        <name>yarn.resourcemanager.address</name>
        <value>192.168.9.157:8032</value>
    </property>
    
     <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>8192</value>
    </property>
    
    
    <property>
           <name>yarn.scheduler.minimum-allocation-mb</name>
           <value>256</value>
    </property>

     <property>
       <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>6</value>
      </property>
    ......
</configuration>

一、创建mapper的Transformation

image

input

image

其中split field row,
delimiter 填写一个空格,用于如何分割一个单词。

image

add constants ,增加一列count统计单词出现的次数,map节点还没有统计,所以所有的单词次数都是1。

image

output

image

这一系列的过程相当于实现了wordcount的mapreduce的map方法,也就是

public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
    StringTokenizer itr = new StringTokenizer(value.toString());
    while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
    }
}

主要的目的就是将hdfs上的文件map操作成如下结果

word(key) count(value)

hello 1

world 1

hello 1

二、创建reduce的Transformation

[站外图片上传中...(image-83078a-1520563970869)]

input,这里的key,value其实就是来自于map阶段的word,count。

[站外图片上传中...(image-c4be5a-1520563970869)]

group by,
相当于执行了 select key,sum(value) as sum from table group by key;

image

out

image

这一系列的操作相当于实现了wordcount的mapreduce的reduce方法,也就是

public void reduce(Text key, Iterable<IntWritable> values, Context context)
        throws IOException, InterruptedException {
    int sum = 0;
    for (IntWritable val : values) {
        sum += val.get();
    }
    result.set(sum);
    context.write(key, result);
}

也就是将map阶段的数据reduce成如下结果。

hello 2

world 1

三、创建wordcount的job

新建一个job,创建一个start节点以及Pentaho MapReduce组件。

image

mapper,选择第一步创建的map Transformation文件,填写input,output stepname。

[站外图片上传中...(image-12949c-1520563970869)]

reducer,选择第二步创建的reduce Transformation文件,填写input,output stepname。

image

job setup,mapreduce的计算结果会存放在hdfs的/user/wordcount/output下。

image

cluster

image

四、运行job

F9运行这个job,如果顺利,在yarn的管理平台里,会看到这个作业在执行。


image

执行完成后会在/user/wordcount/output有输出


image

常见问题总结

1.作业的log一直报RMContainerAllocator: Going to preempt 1 due to lack of space for maps,作业一直是runing状态。###

这是由于nodemanager的内存设置的过小,yarn的container无法申请到足够的资源,参考

https://hortonworks.com/blog/how-to-plan-and-configure-yarn-in-hdp-2-0/

2.任务提交成功,但日志报Stack trace: ExitCodeException exitCode=1: /bin/bash: line 0: fg: no job con

在maper-site.xml中配置mapreduce.app-submission.cross-platform=true

3pdi任务提交成功,但pdi的log一直报Triggering heartbeat signal for wordcountjob at every 10 seconds

这是没有正确配置hostname导致,从集群上复制下来的yarn-site.xml中的hostname可能是localhost等,复制下来后需要改成对应的ip地址。

4.yarn日志报 Invalid resource request, requested memory < 0, or requested memory > max configured

设置yarn.nodemanager.resource.memory-mb

5.pdi报:AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x

客户端的pdi连接到集群的hadoop,要伪装成集群的用户,在spoon.bat增加一行。

set HADOOP_USER_NAME=root

6.limits. Current usage: 202.1 MB of 2 GB physical memory used; 5.3 GB of 4.2 GB virtual memory used. Killing container.

这是由于容器使用的虚拟内存超过了设定的值,这个值一般是mapreduce.reduce.memory.mb与yarn.nodemanager.vmem-pmem-ratio的乘积,yarn.nodemanager.vmem-pmem-ratio默认值是2.1,所以需要调大这个参数。

参考《hadop权威指南第四版》10.3.3章节。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容