11 2019 档案

摘要:今天生产上有一个磁盘满了 就是下图中红框标记的60%,这是解决之后的截图在解决之前,是100%的。 出现了上述情况,我总结了一个自己的解决思路 1.从图中可以看出,这个/dev/vda1磁盘对应的目录是 / 根目录,我们可以看到这各磁盘下有63个G,使用了100%,那一定是根目录下有哪个文件夹格外大 阅读全文
posted @ 2019-11-08 16:26 任重而道远的小蜗牛 阅读(567) 评论(0) 推荐(0) 编辑
摘要:生产上有一个目录磁盘比较小为了预防日后磁盘被日志挤爆,所以要做一个软连接,把日志存到另外一个磁盘上去 然后就出现了下面的心得 ln -s 要放入的目录 原来的目录 ln -s /ccdata/log/hadoop-hdfs/ /var/log/hadoop-hdfs 原来的目录因为已经存在了 所以你 阅读全文
posted @ 2019-11-08 15:55 任重而道远的小蜗牛 阅读(578) 评论(0) 推荐(0) 编辑
摘要:这篇博客一定能解决你的问题 https://blog.csdn.net/redhat1986/article/details/89953073 阅读全文
posted @ 2019-11-05 15:52 任重而道远的小蜗牛 阅读(2892) 评论(0) 推荐(0) 编辑
摘要:我在CDH界面上部署spark2的时候一直都很顺利直到在部署客户端的时候,出现了标题中的错误,之前部署从来没有遇见过好慌呀~ 然后就去找日志 解决方式 软连接完成以后再在页面上重新部署客户端成功啦 运行spark案例 spark部署完成以后,要运行一个简单的小案例来确保部署是没有问题的 我们运行一个 阅读全文
posted @ 2019-11-01 18:14 任重而道远的小蜗牛 阅读(951) 评论(0) 推荐(0) 编辑
摘要:CDH下载源的部署 关于下载源的配置,主要是因为从官方下载的话会很慢,如果网速不行的话会中途失败,所以我们基本上都会将源下载好,自己配置一个下载源然后直接配置,这样会快很多 这里我们就拿spark2的部署举例子(kafka同理) 然后偶我们在 /var/www/html 目录下创建一个spark2_ 阅读全文
posted @ 2019-11-01 14:10 任重而道远的小蜗牛 阅读(800) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示