通过dataframe相关算子操作创建dataset
说明
- 使用Dataframe相关算子进行转换的来 都需要引入sparksession的隐式转换内容
- map算子 将原有的Dataset的每一行数据进行转换 得到一个新的数据类型 就是新的Dataset的类型
flatMap算子 将原有的Dataset的每一行数据进行压扁操作 得到一个集合数据类型 集合数据就是新的Dataset的类型 - DataFrame中SQL操作算子都返回是一个Dataset结果集,除了select和selectExpr
代码
package SparkSQL.DataSet import org.apache.spark.SparkConf import org.apache.spark.sql.{DataFrame, Dataset, SparkSession} /** * Dataset的第四种创建方式: * 使用Dataframe相关算子进行转换的来 都需要引入sparksession的隐式转换内容 * map算子 将原有的Dataset的每一行数据进行转换 得到一个新的数据类型 就是新的Dataset的类型 * flatMap算子 将原有的Dataset的每一行数据进行压扁操作 得到一个集合数据类型 集合数据就是新的Dataset的类型 * DataFrame中SQL操作算子都返回是一个Dataset结果集,除了select和selectExpr */ object BySuanZiCreateDataset { def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setAppName("demo04").setMaster("local[*]") val session = SparkSession.builder().config(sparkConf).getOrCreate() val seq:Seq[(String,Int)] = Array(("zs",20),("ls",20),("ww",20)) val dataFrame:DataFrame = session.createDataFrame(seq) import session.implicits._ val dataset: Dataset[(String, Int)] = dataFrame.map(row => { ((row.getAs[String](0), row.getAs[Int](1))) }) dataset.show() val frame: DataFrame = session.read.text("hdfs://node1:9000/wc.txt") frame.show() val dataset1: Dataset[String] = frame.flatMap(row => { val line = row.getAs[String](0) val array = line.split(" ") array }) dataset1.show() } }
本文来自博客园,作者:jsqup,转载请注明原文链接:https://www.cnblogs.com/jsqup/p/16639395.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?