会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
nolonely
很多时候不是我们做不好,而是没有竭尽全力......
首页
新随笔
管理
2016年4月9日
hive on spark
摘要: 在我学习hive的时候,按照官网上的demo, // sc is an existing SparkContext. val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) sqlContext.sql("CREATE TABLE
阅读全文
posted @ 2016-04-09 11:25 nolonely
阅读(299)
评论(0)
推荐(0)
编辑