您的位置:首页 > 运维架构 > Apache

【云星数据---Apache Flink实战系列(精品版)】:Apache Flink高级特性与高级应用001-Flink的内存管理001

2017-11-18 16:34 711 查看

一、基于JVM的大数据生态圈

1.bigdata on jvm



1.现在大多数开源大数据处理框架都是基于jvm的,像 Apache Hadoop,Apache Spark,Apache Hbase,
Apache Kafka,Apache Flink等。
2.JVM上的程序一方面享受着它带来的好处,也要承受着JVM带来的弊端。


2.jvm的弊端



1.JVM的OOM问题
利用JVM平台开发的程序都会受到OutOfMemoryError的困扰,特别是大数据领域分布式计算框架,他们需要大量的内存,
不得不经常面临这个头疼的问题,当JVM中所有对象大小超
c194
过分配给JVM的内存大小时,就会发生OutOfMemoryError错误,
导致JVM崩溃,所有在JVM上工作的程序都将无一幸免的受到影响。

2.Full GC
JVM的GC机制一直都是让人又爱又恨的东西。一方面,JVM自己管理内存,减轻开发者的负担,提高开发效率,保障内存安全。
另一方面,不受开发者控制的GC想一颗定时炸弹一样,一旦JVM进行大规模的垃圾回收,所有基于jvm的程序都不再工作,这将
极大的影响实时应用的可靠交付。特别是大数据领域,在处理大量数据的时候,不可避免的的创建了大量的临时对象,一旦对象
使用完毕后,JVM就不定期的进行大规模的垃圾回收工作,这对大数据应用影响很大。

3.Java对象存储密度低
例一:一个只包含boolean属性的对象占用了16个字节内存:对象头占了8个,boolean 属性占了1个,对齐填充占了7个。
而实际上只需要一个bit(1/8字节)就够了。
例二:“abcd”这样简单的字符串在UTF-8编码中需要4个字节存储,但Java采用UTF-16编码存储字符串,需要8个字节存储
“abcd”,同时Java对象还对象header等其他额外信息,一个4字节字符串对象,在Java中需要48字节的空间来存储。
对于大部分的大数据应用,内存都是稀缺资源,更有效率的内存存储,则意味着CPU数据访问吞吐量更高,及更少的磁盘落地。


注意:

现在很多大数据处理引擎,开始自动动手管理内存。比如 Apache Drill,Apache Ignite,Apache Geode,Apache Spark等。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐