摘要: 1.Spark SQL 出现 的 原因是 什么? (1)Shark执行计划优化完全依赖于Hive,不便于添加新的优化策略。 (2)Spark是线程级并行,MapReduce是进程级并行,因此,Spark在兼容Hive的实现上存在线程安全问题,导致Shark不得不使用另外一套独立维护的、打了补丁的Hi 阅读全文
posted @ 2021-05-10 15:41 叶利钦 阅读(48) 评论(0) 推荐(0) 编辑