随笔 - 217  文章 - 4  评论 - 4  阅读 - 23526

spark-sql导出数据为csv

在spark-sql中进行数据分析之后,对数据进行导出,会被导出到hdfs

首先进入spark本地模式

/export/server/spark/bin/spark-shell

数据存储到dataframe

val df = spark.sql("SELECT * FROM table_name WHERE condition")

df.write.format("csv").option("header", "true").save("path_to_file")

其中,format("csv")表示输出文件格式为csv,option("header", "true")表示在输出文件中包含表头,save("path_to_file")指定输出文件的路径。但是该方法数据不在一个文件中。

下面这个会将数据存到一个文件中

val df = spark.sql("SELECT * FROM my_database.my_table WHERE ...")
df.coalesce(1).write.csv("/path/to/output/csv")

 

posted on   跨越&尘世  阅读(1139)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
历史上的今天:
2022-03-06 开学测试——河北省重大技术需求征集系统原型(2)
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示