SparkSQL之数据源
2015-10-07 18:40
337 查看
准备json文件:
可以尝试传统方法:
这是DataFrame的定义方法。
下面可以定义成数据源:
这个时候可以 spark-sql:
cat /root/1.json {"name":"Michael"} {"name":"Andy", "age":30} {"name":"Justin", "age":19}
可以尝试传统方法:
val people = sqlContext.read.json("file:///root/1.json"); people.printSchema(); people.registerTempTable("people3");
这是DataFrame的定义方法。
下面可以定义成数据源:
CREATE TABLE persons USING org.apache.spark.sql.json OPTIONS ( path 'file:///root/1.json' );
这个时候可以 spark-sql:
spark-sql> select * from persons; NULL Michael 30 Andy 19 Justin
相关文章推荐
- SparkSQL之数据源
- 关于要不要为oracle listener设置密码的问题
- MySQL学习笔记20151007数据类型主键外键多对多设计思想
- Hibernate 不同数据库的连接及SQL方言
- 如何完全删除SQL Server2008。
- 关于VBA Excel开发中连接MySQL数据库的问题
- Oracle 左连接、右连接、全外连接、(+)号作用
- MySQL之SQL分析三部曲实际案例
- 用SQL实现Oracle中的分析函数功能
- 保护你的redis,给你的redis加“锁”
- mysql创建数据库,表,用户和用户权限设置
- 安装MYSQL 1067错误
- MySQL索引选择不正确并详细解析OPTIMIZER_TRACE格式
- mysql 源代码讲解
- C#和SQL实现的字符串相似度计算代码分享
- mysql 笔记
- mysql,oracle批量插入,更新
- MySQL学习历程(四):常见运算符
- SQL Server之存储过程基础知识
- 连接数据库