spark的DataFrame的schema模式:读时模式, 指定模式
读时模式#
val path="/Volumes/Data/BigData_code/data/"
//读取json生成dataframe
val df = spark.read.format("json").load(path + "flight-data/json/2015-summary.json")
df.printSchema()
读时模式是通过前几行的数据,来对各个列进行推断各个列的数据类型。优点是方便。但是,读时模式会造成精度损失。因为在前几行推断出是int类型,但是,实际是long类型。
指定模式#
方法1:使用StructType实现指定
val path="/Volumes/Data/BigData_code/data/"
//自定义schema模式
val mySchema = StructType(Array(
StructField("DEST_COUNTRY_NAME", StringType, true),
StructField("ORIGIN_COUNTRY_NAME", StringType, true),
StructField("count", LongType, false, Metadata.fromJson("{\"home\":\"world\"}"))
))
//生成DataFrame
val df = spark.read.format("json").schema(mySchema) //使用自定义的schema模式
.load(path + "flight-data/json/2015-summary.json")
df.printSchema()
方法2:使用case class实现指定
val path="/Volumes/Data/BigData_code/data/"
//自定义schema模式
case class myClass (
DEST_COUNTRY_NAME:String,ORIGIN_COUNTRY_NAME:String,count:Long
)
val mySchema = Encoders.product[myClass].schema
//生成DataFrame
val df = spark.read.format("json").schema(mySchema) //使用自定义的schema模式
.load(path + "flight-data/json/2015-summary.json")
df.printSchema()
假如,不需要指定列名可以使用以下方法:
val path="/Volumes/Data/BigData_code/data/"
//自定义schema模式
val mySchema = Encoders.product[(String, String, Long)].schema
//生成DataFrame
val df = spark.read.format("json").schema(mySchema) //使用自定义的schema模式
.load(path + "flight-data/json/2015-summary.json")
df.printSchema()
注意:这里有给默认的列名:_1,_2,_3。自己可以使用printSchema输出一下。
作者:ALINGMAOMAO
出处:https://www.cnblogs.com/ALINGMAOMAO/p/17118120.html
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
· SQL Server 2025 AI相关能力初探