在standalone-cluster模式上运行spark应用程序(用sbt打包)
2014-04-14 15:38
519 查看
环境:
在同一台机器上启动一个master和一个slave,进入$spark_home启动master使用 ./sbin/start-master
启动slave使用./bin/spark-class org.apache.spark.deploy.worker.Worker spark://<sparkmaster>:7077
spark应用程序:
创建一个应用程序目录/home/snowman/test, 创建源程序 src/main/scala/FirstProg.scalaimport org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
object SimpleApp {
def main(args: Array[String]) {
val logFile = "/home/snowman/kexueguairen.txt" // Should be some file on your system
val sc = new SparkContext("spark://sparkmaster:7077", "Simple App", "<$SPARK_HOME>",
List("file:///home/snowman/test/target/scala-2.10/simple-project_2.10-1.0.jar"))
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
val numThes = logData.filter(line => line.contains("the")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
println("Lines with the: %s".format(numThes))
}
}
创建sbt配置文件firstapp.sbt
name := "Simple Project"version := "1.0"
scalaVersion := "2.10.3"
libraryDependencies += "org.apache.spark" %% "spark-core" % "0.9.1"
resolvers += "Akka Repository" at "http://repo.akka.io/releases/"
使用sbt打包, 第一次运行时先执行sbt, 第一次运行会下载很多依赖包,比较慢,
sbt package
如果重新打包,可以sbt clean, 然后sbt package
这时会生成 target/scala-2.10/simple-project_2.10-1.0.jar
运行应用程序
在spak_home下运行./bin/spark-class org.apache.spark.deploy.Client launch spark://sparkmaster:7077 file:///home/snowman/test/target/scala-2.10/simple-project_2.10-1.0.jar SimpleAppweb监控
在http://<spark_master_ip>:8080可以看到监控页面,里面有刚才运行的应用程序的结果程序的标准输出和错误输出可见work/dirver-***目录下的stdout和stderr
相关文章推荐
- 编写第一个用scala写的spark任务,用sbt打包成jar,并单机模式下运行
- 编写第一个用scala写的spark任务,用sbt打包成jar,并单机模式下运行
- Spark on yarn client 和cluster模式运行序列图
- 深入理解Spark 2.1 Core (六):Standalone模式运行的原理与源码分析
- spark源码学习(六):standalone模式的cluster集群源码解读
- Spark Standalone模式应用程序开发
- Spark运行模式:cluster与client
- Spark on YARN cluster & client 模式作业运行全过程分析
- Spark修炼之道(高级篇)——Spark源码阅读:第十节 Standalone运行模式解析
- Spark Client和Cluster两种运行模式的工作流程
- 深入理解Spark 2.1 Core (五):Standalone模式运行的原理与源码分析
- Spark的运行模式(1)--Local和Standalone
- Spark运行模式:cluster与client
- Spark Client和Cluster两种运行模式的工作流程
- Spark的StandAlone运行模式环境搭建
- 安装Spark Standalone模式/Hadoop yarn模式并运行Wordcount
- Spark的运行模式(2)--Yarn-Cluster和Yarn-Client
- Spark Standalone模式应用程序开发
- Spark在IDEA中打jar包,并在集群上运行(包括local模式,standalone模式的集群运行)
- spark在yarn上面的运行模型:yarn-cluster和yarn-client两种运行模式: