您的位置:首页 > 数据库

编译spark源码使sparksql支持hive(cdh的)

2016-08-31 14:37 671 查看

一:首先设置maven的内存

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
二:在spark的目录下执行该命令(cd spark-1.3.0)
mvn -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1 -Phive -Phive-thriftserver   -DskipTests clean package

三:编译完成之后,执行以下命令生成bin包

./make-distribution.sh --name custom-spark --skip-java-test --tgz -Pyarn -Dhadoop.version=2.6.0-cdh5.4.1  -Phive -Phive-thriftserver

备注:
        要注意相应的版本,Scala的版本,Hadoop hive cdh版本对应等。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: