spark处理csv文件的进行统计
打开spark-shell命令以3号机为master:
bin/spark-shell --master spark://linux-centos7-03:7077
Scala读取csv文件
var df=spark.read.format("csv").option("sep",",").option("inferSchema","true").option("header","true").load("hdfs://linux-centos7-03:8020/10061789243186.csv")
展示读取到的数据:
df.show
创建临时视图:
df.createTempView("comments")
查询并展示:
spark.sql("select isMobile ,count(*) as sum from comments group by isMobile").show
还有如果出现了问题,
Initial job has not accepted any resources; check your cluster UI to ensure that workers are registe
就是类似这样的问题,直接stop-all.sh全部关闭然后在开启就可以了
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义