第一个PySpark程序
# coding:utf8
from pyspark import SparkConf, SparkContext
import os
if __name__ == '__main__':
os.environ["JAVA_HOME"] = "/opt/jdk1.8.0_144" # 这里的路径为java的bin目录所在路径
conf = SparkConf().setMaster("spark://node1:7077").setAppName("wordcountHelloWord")
sc = SparkContext(conf=conf)
files = sc.textFile("hdfs://node1:9000/input/words")
words = files.flatMap(lambda line: line.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda a, b: a + b)
print(result.collect())
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)