摘要: 问题 在跑spark任务的时候发现任务不能执行。在查看的时候发现spark work节点的/usr/local/spark/work/目录占用了很大空间,导致根目录/满了。 原因使用spark standalone模式执行任务,没提交一次任务,在每个节点work目录下都会生成一个文件夹,命名规则ap 阅读全文
posted @ 2024-05-29 14:34 业余砖家 阅读(16) 评论(0) 推荐(0) 编辑