SparkOnHive

复制代码
package com.shujia.spark.sql

import org.apache.spark.sql.{DataFrame, SaveMode, SparkSession}

object Demo6SparkOnHive {
  def main(args: Array[String]): Unit = {

    val spark: SparkSession = SparkSession
      .builder()
      .appName("submit")
      .enableHiveSupport() //开启hive元数据支持,就可以读取hive中的表了
      .getOrCreate()

    /**
      * 可以直接使用hive中的表
      *
      * sql 的语法完全兼容hive
      */

    val df: DataFrame = spark.sql(
      """
        |select clazz,count(1) from student group by clazz
        |
      """.stripMargin)

    df.cache()
    df.unpersist()


    df.write
      .format("csv")
      .mode(SaveMode.Overwrite)
      .save("/data/clazzNum")

    /**
      * 打包上传到服务器运行
      * spark-submit --class com.shujia.spark.sql.Demo6SparkOnHive --master yarn-client spark-1.0.jar
      *
      */




  }
}
复制代码

 

posted @   坤坤无敌  阅读(59)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
阅读排行:
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· DeepSeek在M芯片Mac上本地化部署
· 葡萄城 AI 搜索升级:DeepSeek 加持,客户体验更智能
点击右上角即可分享
微信分享提示