06 2022 档案

摘要:scala> val employee = sqlparquet.read.json("employee.json") 这里将txt转化为parquet应该也行 employee: org.apache.spark.sql.DataFrame = [_corrupt_record: string, 阅读全文
posted @ 2022-06-24 16:51 M_Fight๑҉ 阅读(66) 评论(0) 推荐(0) 编辑
摘要:Spark SQL 数据源(json文件、hive表、parquet文件) -- json 详见 524 hive表 scala> val hivecontext = new org.apache.spark.sql.hive.HiveContext(sc) warning: one depreca 阅读全文
posted @ 2022-06-24 16:51 M_Fight๑҉ 阅读(137) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示