寒假生活指导01

发布时间 2024-01-09 17:37:13作者: 一个小虎牙

今天看了spark的安装视频,进行了spark的基础学习。

rdd:

map计算
rdd = sc.parallelize([1,2,3,4,5])
def func(date):
    return date*10
rdds=rdd.map(func)
#flatMap解除嵌套
rdd = sc.parallelize(["dwad wad wdas","dwadw dfgawdfw dwad","dwadwad"])
rdds=rdd.flatMap(lambda x : x.split(" "))
#reduceByKey分组两两计算
rdd=sc.parallelize([('',99),('',99),('',99),('',99),('',99),('',99)])
rdds = rdd.reduceByKey(lambda a, b: a+b)
print(rdds.collect())