spark python初学(一)针对某个单词计数版本0
2017-07-16 18:01
351 查看
初学spark 还有很多不会的。这是针对spark下README.md进行单词计数的python代码。
这段代码主要计数的对象是单词”Spark“ 和”spark“
# -*- coding:UTF-8 -*-
from pyspark import SparkContext, SparkConf
# 读取文件并处理
def load_and_deal(file_path):
inputRDD = sc.textFile(file_path)
SparkRdd = inputRDD.filter(lambda s: "Spark" in s)
sparkRdd = inputRDD.filter(lambda s: "spark" in s)
allRdd = SparkRdd.union(sparkRdd)
disRdd = allRdd.distinct()
words = disRdd.flatMap(lambda x: x.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda x, y: x+y)
return result
# 计数
def count_words(rdd):
Sparknum = 0
sparknum = 0
for item in rdd.collect():
print(item) # 包含Spark和saprk的所有句子中的单词计数
print item[0].count("spark")
if "Spark" in item[0]:
Sparknum += item[1] # Spark计数
if "spark" in item[0]:
sparknum += item[1] # spark计数
return Sparknum, sparknum
def main():
# 1 读取文件并处理
file = 'README.md'
result = load_and_deal(file)
# 2 计数
Sparknum,sparknum = count_words(result)
# 3 输出
print("the nums of Spark:" + str(Sparknum)) # 21
print("the nums of spark:" + str(sparknum)) # 13
if __name__ == "__main__":
conf = SparkConf().setMaster("local").setAppName("words count")
sc = SparkContext(conf=conf)
main()
这段代码主要计数的对象是单词”Spark“ 和”spark“
# -*- coding:UTF-8 -*-
from pyspark import SparkContext, SparkConf
# 读取文件并处理
def load_and_deal(file_path):
inputRDD = sc.textFile(file_path)
SparkRdd = inputRDD.filter(lambda s: "Spark" in s)
sparkRdd = inputRDD.filter(lambda s: "spark" in s)
allRdd = SparkRdd.union(sparkRdd)
disRdd = allRdd.distinct()
words = disRdd.flatMap(lambda x: x.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda x, y: x+y)
return result
# 计数
def count_words(rdd):
Sparknum = 0
sparknum = 0
for item in rdd.collect():
print(item) # 包含Spark和saprk的所有句子中的单词计数
print item[0].count("spark")
if "Spark" in item[0]:
Sparknum += item[1] # Spark计数
if "spark" in item[0]:
sparknum += item[1] # spark计数
return Sparknum, sparknum
def main():
# 1 读取文件并处理
file = 'README.md'
result = load_and_deal(file)
# 2 计数
Sparknum,sparknum = count_words(result)
# 3 输出
print("the nums of Spark:" + str(Sparknum)) # 21
print("the nums of spark:" + str(sparknum)) # 13
if __name__ == "__main__":
conf = SparkConf().setMaster("local").setAppName("words count")
sc = SparkContext(conf=conf)
main()
相关文章推荐
- spark python初学(一)针对某个单词计数版本1
- python实现指定目录下批量文件的单词计数:串行版本
- python实现指定目录下批量文件的单词计数:串行版本
- python实现指定目录下批量文件的单词计数:并发版本
- python实现指定目录下批量文件的单词计数:并发版本
- python实现指定目录下JAVA文件单词计数的多进程版本
- scala语言编程spark单词计数
- Python读写,以及修改my.ini文件--针对Python3.0版本
- 【和我一起学python吧】初学Python,版本如何选择?
- 499 - 单词计数 (Map Reduce版本)
- [置顶] 【spark 词频统计】spark单词进行计数升级版
- Mac 配置Spark环境scala+python版本(Spark1.6.0)
- 简单SparkRDD单词计数操作
- Spark学习总结一 单词计数
- Python pycharm(windows版本)部署spark环境
- spark wordCount单词计数及原理解析
- 带有状态的SparkStreaming单词计数程序
- 使用Python对文档单词进行计数
- Python pycharm(windows版本)部署spark环境
- Python使用spark时出現版本不同的错误