2017年9月26日

spark链接hive并查询数据

摘要: 首先启动 hadoop,mysql,hive 服务 {hadoop}/sbin/start-all.sh service mysqld start hive --service metastore& hive --service hiveserver2 & 最后启动spark 我是以python方式 阅读全文

posted @ 2017-09-26 09:48 潺潺水声 阅读(770) 评论(0) 推荐(0) 编辑

导航