11 2020 档案
摘要:背景 由于采用了sparkstreaming 任务一直再运行导致日志文件暴涨,达到了硬盘的预警,不得已必须指定策略定期删除日志已保证服务器硬盘空间。 spark的日志分类 spark的日志都有那些: 1.event(history) 2.work 3.executor 解决方法 方案1 一开始为了快
阅读全文
摘要:本文使用Spark的版本为:spark-2.4.0-bin-hadoop2.7.tgz。 spark的集群采用3台机器进行搭建,机器分别是server01,server02,server03。 其中:server01,server02设置为Master,server01,server02,serve
阅读全文