spark-sql导出数据为csv
在spark-sql中进行数据分析之后,对数据进行导出,会被导出到hdfs
首先进入spark本地模式
/export/server/spark/bin/spark-shell
数据存储到dataframe
val df = spark.sql("SELECT * FROM table_name WHERE condition")
df.write.format("csv").option("header", "true").save("path_to_file")
其中,format("csv")
表示输出文件格式为csv,option("header", "true")
表示在输出文件中包含表头,save("path_to_file")
指定输出文件的路径。但是该方法数据不在一个文件中。
下面这个会将数据存到一个文件中
val df = spark.sql("SELECT * FROM my_database.my_table WHERE ...") df.coalesce(1).write.csv("/path/to/output/csv")
标签:
大数据学习
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
2022-03-06 开学测试——河北省重大技术需求征集系统原型(2)