HiveOnSpark
Hive是Hadoop上的SQL引擎,SparkSQL编译时可以包含Hive支持,包含Hive支持之后,SparkSQL可以访问Hive表,对表进行创建,查询等操作,同时还能支持SQL或HQL
1、内置hive:
在安装Spark的同时就支持hive操作,使用是本地文件系统作为存储,使用默认数据库,使用版本是1.2.1
2、外置hive
这个hive不是Spark内部提供,而是独立安装好的,hive1.2.1和spark1.6.x 会spark2.x版本都可以无缝对接
1.将hive安装目录下hive-site.xml文件 拷贝到spark的conf目录下
$ cp ./hive-site.xml /opt/software/spark-2.2.0-bin-hadoop2.7/conf/
2.hive现在元数据是Mysql进行管理的,所以Spark启动时候需要加载元数据,我们需要操作mysql数据
需要将JDBC驱动jar包拷贝到spark安装目录的bin目录下
$ cp ./mysql-connector-java-5.1.39.jar /opt/software/spark-2.2.0-bin-hadoop2.7/bin/
3.可以启动spark-shell进行hive连接操作
spark-shell \ --master spark://master:7077 \ --jars mysql-connector-java-5.1.39.jar
4、通过本地idea写代码进行操作(本地|集群)
【本地】
val session: SparkSession = SparkSession.builder() .config("spark.sql.warehouse.dir","D:\\Spark\\") //因为使用本地,所以warehouse需本地磁盘存储 .appName("HiveOnSpark_Local") .master("local[*]").enableHiveSupport().getOrCreate() //创建一张表 // session.sql("create table if not exists src1(key in,value String)") //插入数据 //session.sql("load data local inpath 'dir/SparkSQL/dataSource/kv1.txt' into table src1") session.sql("select * from src1").show() println("插入数据成功") session.stop()
【集群】
(1).只需要将hive-site.xml文件添加到IDEA中resources文件夹中即可
ps: Hadoop中 hdfs文件和core文件也需要添加resources文件夹中(部分需要)
(2).修改windows下的hosts文件 存在的目录C:\Windows\System32\drivers\etc
添加映射,因为mycluster是文件映射所以通过这样方式无论是hadoop01或hadoop02任意一个是Active都可以正常使用
(3).因为需要连接的是hive服务,元数据也是在hive服务端,所以还需要在pom.xml文件添加JDBC驱动
val session: SparkSession = SparkSession.builder() .appName("HiveOnSpark_Cluster") .master("spark://master:7077")//集群端的Spark .enableHiveSupport().getOrCreate() 对hive进行操作,默认操作是default /*session.sql( """ |create table if not exists src_3 ( |key int, |value String) |row format delimited |fields terminated by ' ' |""".stripMargin)*/ session.sql("show tables").show()