pyspark常用算子学习笔记

本文的pyspark代码是在jupyter中执行的,我的python环境用的是anaconda,版本为3.7 。如果你还没有搭建环境的话可以看我另外两篇文章
win10安装anaconda
在Windows上搭建pyspark环境

image.png

anaconda中自带jupyter,打开就能愉快的编码了。
废话不多说,直接上代码

创建SparkContext

from  pyspark import SparkConf,SparkContext
# 创建spark上下文环境
conf = SparkConf().setMaster("local[*]").setAppName("wordcount")
sc = SparkContext.getOrCreate(conf)
# 用内存中的数据创建一个RDD
list = [1,2,3,4,5]
rdd = sc.parallelize(list)
print(rdd.collect())

[1, 2, 3, 4, 5]

# 打印分区数
print(rdd.getNumPartitions())
# 重新分区并按分区打印
print(rdd.repartition(3).glom().collect())

4
[[], [1, 3], [2, 4, 5]]

rdd transformation转换算子

numbersRdd = sc.parallelize(range(1,11))
print(numbersRdd.collect())
# map
mapRdd = numbersRdd.map(lambda x : x*x)
print(mapRdd.collect())
#  filter
filterRdd = numbersRdd.filter(lambda x : x%2 == 0)
print(filterRdd.collect())
#  flatMap
flatMapRdd = numbersRdd.flatMap(lambda x : (x,x*x))
print(flatMapRdd.collect())
print(flatMapRdd.distinct())
#  sample
sampleRdd = numbersRdd.sample(withReplacement = True,fraction = 0.5,seed=10)
print(sampleRdd.collect())
#  sortBy
sortedRdd = flatMapRdd.sortBy(keyfunc = lambda x : x,ascending = False)
print(sortedRdd.collect())

[1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
[1, 4, 9, 16, 25, 36, 49, 64, 81, 100]
[2, 4, 6, 8, 10]
[1, 1, 2, 4, 3, 9, 4, 16, 5, 25, 6, 36, 7, 49, 8, 64, 9, 81, 10, 100]
PythonRDD[41] at RDD at PythonRDD.scala:53
[5, 9]
[100, 81, 64, 49, 36, 25, 16, 10, 9, 9, 8, 7, 6, 5, 4, 4, 3, 2, 1, 1]

# 在一个job中连续使用转换API
def odd(x):
    if x%2 == 1:
        return 2*x
    else:
        return x
    
resultRdd = numbersRdd.map(lambda x: odd(x)).filter(lambda x :x > 6).distinct()
print(resultRdd.collect())

[8, 10, 14, 18]

actin算子

rdd = sc.parallelize(["Hello hello","Hello New York","Hi Beijing"])
pairRdd = (rdd.flatMap(lambda x : x.split(" "))
          .map(lambda word : word.lower())
          .map(lambda word : (word,1)))
# groupByKey
groupRdd = pairRdd.groupByKey()
print(groupRdd.collect())
#  reduceByKey
reduceRdd = pairRdd.reduceByKey(lambda x,y:x+y)
print(reduceRdd.collect())
#  sortByKey
sortedRdd = reduceRdd.sortByKey(ascending = False,keyfunc = lambda x:x)
print(sortedRdd.collect())
# aggregateByKey
zeroValue = 0
seqFunc = lambda a,b : a+b
combFunc = lambda x,y : x+y
aggregateRdd = pairRdd.aggregateByKey(zeroValue,seqFunc,combFunc)
print(aggregateRdd.collect())
#  sampleByKey
sampleRdd = pairRdd.sampleByKey(withReplacement=False,fractions={'hello':0.2,'new':0.1,'hi':0.2,'beijing':0.2,'york':0.1},seed = 81)
print(sampleRdd.collect())

[('hello', <pyspark.resultiterable.ResultIterable object at 0x0000014CA57BB448>), ('hi', <pyspark.resultiterable.ResultIterable object at 0x0000014CA57BB1C8>), ('beijing', <pyspark.resultiterable.ResultIterable object at 0x0000014CA578CB88>), ('new', <pyspark.resultiterable.ResultIterable object at 0x0000014CA578C108>), ('york', <pyspark.resultiterable.ResultIterable object at 0x0000014CA5C16848>)]
[('hello', 3), ('hi', 1), ('beijing', 1), ('new', 1), ('york', 1)]
[('york', 1), ('new', 1), ('hi', 1), ('hello', 3), ('beijing', 1)]
[('hello', 3), ('hi', 1), ('beijing', 1), ('new', 1), ('york', 1)]
[('hello', 1), ('york', 1), ('beijing', 1)]

两个RDD之间使用的算子

rdd1 = sc.parallelize([1,2,3])
rdd2 = sc.parallelize([2,3,4])
# 并集union
unionRdd = rdd1.union(rdd2)
print(unionRdd.collect())
# 交集 intersection
intersectionRdd = rdd1.intersection(rdd2)
print(intersectionRdd.collect())
#  差集substract 
subtractRdd = rdd1.subtract(rdd2)
print(subtractRdd.collect())
# 笛卡尔积cartesian
cartesianRdd = rdd1.cartesian(rdd2)
print(cartesianRdd.collect())

[1, 2, 3, 2, 3, 4]
[2, 3]
[1]
[(1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3, 4)]

rdd1 = sc.parallelize([
    ("Bob","Jack"),
    ("Bob","John"),
    ("lown","jane"),
    ("Boss","Mary")
])
rdd2 = sc.parallelize([
    ("Bob",10),
    ("Boss",7),
    ("hello",6)
])
# 内连接
innerRdd = rdd1.join(rdd2)
print(innerRdd.collect())
# 左连接
leftRdd = rdd1.leftOuterJoin(rdd2)
print(leftRdd.collect())
# 右连接
rigthRdd = rdd1.rightOuterJoin(rdd2)
print(rigthRdd.collect())
# 全连接
fullRdd = rdd1.fullOuterJoin(rdd2)
print(fullRdd.collect())

[('Boss', ('Mary', 7)), ('Bob', ('Jack', 10)), ('Bob', ('John', 10))]
[('lown', ('jane', None)), ('Boss', ('Mary', 7)), ('Bob', ('Jack', 10)), ('Bob', ('John', 10))]
[('hello', (None, 6)), ('Boss', ('Mary', 7)), ('Bob', ('Jack', 10)), ('Bob', ('John', 10))]
[('lown', ('jane', None)), ('hello', (None, 6)), ('Boss', ('Mary', 7)), ('Bob', ('Jack', 10)), ('Bob', ('John', 10))]

wordcount词频统计

# 读取本地文件系统
path = "file:///E:\spark-2.4.6-bin-hadoop2.7\data\mllib\sample_fpgrowth.txt"
rdd = sc.textFile(path)
print(rdd.collect())

result = (rdd.flatMap(lambda x : x.split(" "))
          .map(lambda word : (word,1))
          .repartition(10)
          .reduceByKey(lambda a,b: a+b)
         )
print(result.collect())

['r z h k p', 'z y x w v u t s', 's x o n r', 'x z y m t s q e', 'z', 'x z y r q t p']
[('u', 1), ('m', 1), ('y', 3), ('k', 1), ('t', 3), ('o', 1), ('n', 1), ('e', 1), ('r', 3), ('h', 1), ('p', 2), ('s', 3), ('x', 4), ('q', 2), ('z', 5), ('w', 1), ('v', 1)]

读写hdfs

# 读取hdfs文件,生成RDD,spark conf中不加入hdfs相关的两个配置文件的话默认是本地
path = "hdfs://110.141.77.118:8020/user/sjmt_ml/data/mllib/sample_fpgrowth.txt"
rdd = sc.textFile(path)
# print(rdd.collect())
# 词频统计
result = (rdd.flatMap(lambda x : x.split(" "))
          .map(lambda word : (word,1))
          .repartition(10)
          .reduceByKey(lambda a,b: a+b)
         )
result.saveAsTextFile("/user/sjmt_ml/result/wc" + datetime.now().strftime('%Y-%m-%d'))

def func(iter):
    for i in iter:
        return i
    
result.mapPartitions(lambda iter : func(iter)).collect()    

['r z h k p', 'z y x w v u t s', 's x o n r', 'x z y m t s q e', 'z', 'x z y r q t p']

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,457评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,837评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,696评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,183评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,057评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,105评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,520评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,211评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,482评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,574评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,353评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,897评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,489评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,683评论 2 335