离线轻量级大数据平台Spark之JavaRDD关联join操作
2017-01-12 16:56
447 查看
对两个RDD进行关联操作,如:
1)文件post_data.txt包含:post_id\title\content
2)文件train.txt包含:dev_id\post_id\praise\time
通过post_id关联,提取post_id\content\praise字段,文件字段用不定长多个空格分割;
参考代码如下:
执行结果:
参考官网的JavaPariRDD的join操作。
1)文件post_data.txt包含:post_id\title\content
2)文件train.txt包含:dev_id\post_id\praise\time
通过post_id关联,提取post_id\content\praise字段,文件字段用不定长多个空格分割;
参考代码如下:
package scs.contest; import java.util.List; import java.util.Properties; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.Optional; import org.apache.spark.api.java.function.PairFunction; import scala.Tuple2; public class pageview { public static String path="/home/spark/data"; public static void main(String[] args) { //第一步:设置环境字符集,避免中文乱码 Properties pps=System.getProperties(); pps.setProperty("file.encoding","UTF-8"); //第二步:txt数据导入并分割成到训练集和预测集 SparkConf sparkConf = new SparkConf().setAppName("pageview"); JavaSparkContext jsc = new JavaSparkContext(sparkConf); JavaRDD<String> postdataLines =jsc.textFile(path+"/post_data.txt");//id\title\content JavaRDD<String> trainLines =jsc.textFile(path+"/train.txt");//dev_id\post_id\praise\time JavaPairRDD<String,String> pdLines=postdataLines.mapToPair(new PairFunction<String,String,String>(){ public Tuple2<String, String> call(String t) throws Exception { String[] st=t.split("\\s+");//多个空格情况的分割 String content=""; for(int i=1;i<st.length;i++){ content+=st[i]; } return new Tuple2(st[0],content);//title+content都取,title一般为空的情况下 } }); JavaPairRDD<String,String> ptLines=trainLines.mapToPair(new PairFunction<String,String,String>(){ public Tuple2<String, String> call(String t) throws Exception { String[] st=t.split("\\s+"); return new Tuple2(st[1], st[2]); } }); //合并两个JavaPairRDD,得到训练集和预测集 JavaPairRDD<String, Tuple2<String, String>> tLines=pdLines.join(ptLines);//训练街 Tuple2<String, Tuple2<String, String>> tpfirst=tLines.first(); System.out.println(tpfirst._1+"|"+tpfirst._2()._1+"|"+tpfirst._2()._2); //预测集,Optional<String>=Optional.empty的记录数 JavaPairRDD<String, Tuple2<String, Optional<String>>> pLines=pdLines.leftOuterJoin(ptLines); Tuple2<String, Tuple2<String, String>> tpfirst1=tLines.first(); System.out.println(tpfirst1._1+"|"+tpfirst1._2()._1+"|"+tpfirst1._2()._2); } }
执行结果:
507298|无聊的一天又开始了…|1 547732|人生不可能总一帆风顺,总会有一些挫折的。|Optional.empty
参考官网的JavaPariRDD的join操作。
相关文章推荐
- 离线轻量级大数据平台Spark之单机部署及Java开发
- 离线轻量级大数据平台Spark之MLib机器学习库朴素贝叶斯实例
- 离线轻量级大数据平台Spark之MLib机器学习库线性回归实例
- 离线轻量级大数据平台Spark之中文字符显示问题的解决
- 离线轻量级大数据平台Spark之MLib机器学习库概念学习
- 离线轻量级大数据平台Spark之MLib机器学习库聚类算法KMeans实例
- 离线轻量级大数据平台Spark之MLib机器学习库SVM实例
- 离线轻量级大数据平台Spark之读取CSV文件实例
- 离线轻量级大数据平台Spark之MLib机器学习库TF-IDF实例
- 离线轻量级大数据平台Spark之MLib机器学习协同过滤ALS实例
- 离线轻量级大数据平台Spark之MLib机器学习库Word2Vec实例
- SPARK 使用Java 在IDE中实战RDD和DataFrame动态转换操作
- spark1.4加载mysql数据 创建Dataframe及join操作连接方法问题
- Python进行数据的多表Join关联操作
- 高通平台java层操作NV数据的方法
- Spark算子:RDD键值转换操作(5)–leftOuterJoin、rightOuterJoin、subtractByKey
- Spark的RDD操作之Join大全!
- Spark算子:RDD键值转换操作(4)–cogroup、join
- Java接入Spark之创建RDD的两种方式和操作RDD
- Spark算子:RDD键值转换操作(5)–leftOuterJoin、rightOuterJoin、subtractByKey