摘要: 1、来自外部文件json val data=spark.read.json("hdfs://cslcdip/home/dip/lzm/sparkdata/people.json") println(data.schema) data.show() 2、来自json格式的RDD val nameRDD 阅读全文
posted @ 2021-01-12 11:36 bioamin 阅读(392) 评论(0) 推荐(0) 编辑
摘要: 1、配置hadoop环境并且制定 VM 2、配置hive的依赖包 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.11</artifactId> <version>2.3.0</version> <! 阅读全文
posted @ 2021-01-12 11:33 bioamin 阅读(835) 评论(0) 推荐(0) 编辑