百里登风

导航

2018年3月19日

Spark SQL快速离线数据分析

摘要: 拷贝hive-site.xml到spark的conf目录下面 打开spark的conf目录下的hive-site.xml文件 加上这段配置(我这里三个节点的spark都这样配置) 把hive中的mysql连接包放到spark中去 检查spark-env.sh的hadoop配置项 检查dfs是否启动了 阅读全文

posted @ 2018-03-19 21:40 百里登峰 阅读(3804) 评论(0) 推荐(0) 编辑