您的位置:首页 > 其它

Spark MLLib KMeans OOM 问题

2016-05-27 12:51 399 查看
1.问题描述

    对7万*3万的矩阵,对行数据KMeans聚类,刚开始执行,就报错:java.lang.OutOfMemoryError: Java heap space

2.原因查找

    查看Spark MLLib KMeans源码中有关开辟堆栈空间的部分,在

spark-1.6.1\mllib\src\main\scala\org\apache\spark\mllib\clustering\KMeansModel.scala

中找到了下面这个语句:

def this(centers: java.lang.Iterable[Vector]) = this(centers.asScala.toArray)

3.分析:

       我设置的类别数目是5000,数据维度上面提到了是3万,猜测源码把5000*3万的数据量放到一个数组中而,这个猜测与报错的原因及报错发生在刚执行的时刻吻合。

4.确认与解决:

       方案一:降低聚类数目,降低到50后,不再OOM,分析得到了印证;

      
方案二:降低数据维度,使用SVD降维,左矩阵乘以奇异值矩阵得到原始数据的低维近似;
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  spark