spark处理csv文件的进行统计

打开spark-shell命令以3号机为master:

bin/spark-shell --master spark://linux-centos7-03:7077

Scala读取csv文件

var df=spark.read.format("csv").option("sep",",").option("inferSchema","true").option("header","true").load("hdfs://linux-centos7-03:8020/10061789243186.csv")

展示读取到的数据:

df.show

创建临时视图:

df.createTempView("comments")

查询并展示:

spark.sql("select isMobile ,count(*) as sum from comments group by isMobile").show

 

还有如果出现了问题,

Initial job has not accepted any resources; check your cluster UI to ensure that workers are registe

就是类似这样的问题,直接stop-all.sh全部关闭然后在开启就可以了

posted @   KongLong_cm  阅读(85)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
点击右上角即可分享
微信分享提示