摘要: 这两天在研究了hbase,hadoop,hive,spark由于spark.py不支持clust(jar才支持,但是太麻烦了>_<)所以最终决定使用hive在hive中用create external table后可以一同指定partition和location,这样就可以直接在hadoop的原始数... 阅读全文
posted @ 2014-11-25 23:40 wangchao719 阅读(112) 评论(0) 推荐(0) 编辑