spark2.0.2测试spark-shell
2016-12-19 00:27
337 查看
spark2.0.2测试spark-shell
上一篇文章介绍的是如何进行spark环境的搭建以及启动和关闭spark。本篇文章讲述的是如何在spark上利用spark-shell进行简单的测试。下面上货:
首先看截图:
1、首先进入到命令行模式:
/home/spark/bin/spark-shell
然后就能看见spark的图标了。
2、在scala命令行中输入如下命令:
val line = sc.textFile("/wordcountinput/123")
这句话的意思是读取hdfs中的/wordcountinput/123文件
然后再使用line.count获得行总数。
3、再次使用scala命令行进行本地文件的测试:
val line= sc.textFile("file:///home/spark/conf/spark-env.sh")
测试一下本地文件/home/spark/conf/saprk-env.sh的行数。
运行截图最开始已经给出了。
相关文章推荐
- spark-shell 测试demo_for_SQL
- 分别用Java、Scala、spark-shell开发wordcount程序及测试代码
- Spark的几种运行模式及shell测试
- spark:spark启动、spark-shell启动及测试--7
- 通过Spark的shell测试Spark的工作
- spark-shell的环境测试
- shell脚本中的算术运算和条件测试语句
- 【CEPH】RBD拍平原理和shell脚本测试
- Scala Spark远程服务器测试
- 利用spark进行层次社团发现(louvain算法测试)
- shell中变量的测试与替换
- shell脚本中的条件测试if中的-z到-d的意思
- YDB on Spark 性能测试
- Shell笔记3——脚本的条件测试与比较
- [shell-基础] 比较与测试
- spark-sql与elasticsearch整合&测试
- Shell 条件测试
- cpu压力测试(c + shell)
- linux-shell 测试
- spark 1.3.0 测试