今天把自己写的一个简单的求平均数的MR打成jar包,在终端跑了一下,因为数据量比较大,是一亿条数据,所以出现了两个问题,就是
Error:Java heap space
Error:GC overhead limit exceeded
显然是内存不足的问题,百度以后,解决方法如下,在/opt/hadoop/hadoop.xxx/etc/hadoop文件夹下,vi打开mapred-site.xml文件,添加一句话
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx1024m</value>
</property>