[Hadoop] hadoop的mapreduce作业中经常出现Java heap space
2012-12-18 14:52
267 查看
原文地址:hadoop的mapreduce作业中经常出现Java heap space解决方案作者:bluesword528
hadoop的mapreduce作业中经常出现Java heap space解决方案 |
[align=right][ 2011-6-12 22:12:00| By: 梦翔儿 ][/align] |
常常被一些用户问到,说“为什么我的mapreduce作业总是运行到某个阶段就报出如下错误,然后失败呢?以前同一个作业没出现过的呀?” 10/01/10 12:48:01 INFO mapred.JobClient: Task Id :attempt_201001061331_0002_m_000027_0, Status :FAILED java.lang.OutOfMemoryError: Java heap space atorg.apache.hadoop.mapred.MapTask$MapOutputBuffer.<init>(MapTask.java:498) atorg.apache.hadoop.mapred.MapTask.run(MapTask.java:305) at org.apache.hadoop.mapred.Child.main(Child.java:158) 这个实际上是 Out Of Memory OOM问题。 其实这样的错误有时候并不是程序逻辑的问题(当然有可能是由于程序写的不够高效,产生的内存消耗不合理而导致),而是由于同样的作业,在数据量和数据本身发生不同时就会占据不同数量的内存空间。由于hadoop的mapreduce作业的运行机制是:在jobtracker接到客户端来的job提交后,将许多的task分配到集群中各个tasktracker上进行分块的计算,而根据代码中的逻辑可以看出,其实是在tasktracker上启了一个java进程进行运算,进程中有特定的端口和网络机制来保持map和reduce之间的数据传输,所以,这些OOM的错误,其实就是这些java进程中报出了OOM的错误。 知道了原因以后就好办了,hadoop的mapreduce作业启动的时候,都会读取jobConf中的配置(hadoop-site.xml),只要在该配置文件中将每个task的jvm进程中的-Xmx所配置的java进程的maxheap size加大,就能解决这样的问题: <property> <name>mapred.child.java.opts</name> <value>-Xmx1024m</value> </property> PS:该选项默认是200M 新版本应该是在conf/hadoop-env.sh文件中修改。默认为1000M |
相关文章推荐
- hadoop的mapreduce作业中出现Java heap space,你认为该如何解决?
- hadoop的mapreduce作业中经常出现Java heap space解决方案
- hadoop的mapreduce作业中经常出现Java heap space解决方案
- Hadoop运行mapreduce任务过程中报错:Error: Java heap space问题解决
- hadoop1.0.4运行程序出现“Java heap Space”错误
- hadoop运行程序是出现java heap space
- [hadoop异常] eclipse中运行mapreduce 异常 --java.lang.OutOfMemoryError: Java heap space
- hadoop运行程序出现Error: Java heap space
- Hadoop 运行作业java堆溢出:java.lang.outofmemoryerror: java heap space hadoop
- hadoop在执行时出现 Caused by: java.lang.OutOfMemoryError: Java heap space
- eclipse使用hadoop插件出现java.lang.OutOfMemoryError: Java heap space
- 解决Hadoop运行jar包时MapReduce任务启动前OutOfMemoryError:Java heap space问题
- hadoop错误-Java heap space at org.apache.hadoop.io.BoundedByteArrayOutputStream
- spark出现GC overhead limit exceeded和java heap space
- 运行的程序时,出现内存不足时的解决方式Exception in thread "main" java.lang.OutOfMemoryError: Java heap space(转)
- spark出现GC overhead limit exceeded和java heap space
- 使用studio进行nc开发启动客户端出现 java.lang.OutOfMemoryError: Java heap space 异常
- 执行ant命令时出现java.lang.OutOfMemoryError: Java heap space
- maven编译出现Java heap space
- 集群运行MapReduce任务报错Error: Java heap space