您的位置:首页 > 运维架构 > Apache

安装并运行Apache Spark 2.x

2020-07-14 06:24 531 查看
1.目的:

本指南包含在Ubuntu OS上以独立模式进行Spark 2.x安装/配置的安装和设置过程的分步文档。 Spark中的独立模式可在不使用任何现有群集管理软件(例如Yarn Resource Manager / Mesos)的情况下设置系统。 我们有Spark Master和Spark Worker,它们在独立模式下为Spark应用程序分配驱动程序和执行程序。 安装完成后,您可以通过创建RDD(弹性分布式数据集)并运行转换和操作操作来处理数据。

  2.平台 2.1。 平台要求 操作系统:Ubuntu 14.04或更高版本,我们还可以使用其他Linux版本,例如CentOS,Redhat等。 阅读完整教程

翻译自: https://www.theserverside.com/blog/Coffee-Talk-Java-News-Stories-and-Opinions/Install-and-Run-Apache-Spark-2x

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: