摘要:
出现这个问题的根本原因是clickhouse插入速度超过clickhouse的文件合并速度(默认300) 解决方式如下 觉得好用记得点个关注或者赞哈 阅读全文
摘要:
啥都不说!直接上干货! 打开对应路径下的hadoop-env.cmd 将 set JAVA_HOME=%JAVA_HOME% 更换为绝对路径↓ set JAVA_HOME="E:\Development Software\Java\jdk1.8.0_72" 即可 如安装在C盘下 C:\Program 阅读全文
摘要:
事务启动以后,批量向事务Transaction的一个putList的尾部写入,putlist是一个LinkedBlockingDeque . 事务提交的时候, 把putlist中的event批量移除, 转移到Channel的一个LinkedBlockingDeque 里面来. 而SinkRunner 阅读全文
摘要:
关于sparkstreaming的无法正常产生数据 >到崩溃 >到数据读写极为缓慢(或块丢失?)问题 前两阶段请看我的博客:https://www.cnblogs.com/wang-jia-hong/p/10189513.html 那么我来分享下我对streaming数据读写突然变的极为缓慢的问题的 阅读全文
摘要:
前些天我维护的一个streaming实时报表挂了,情况:数据无法实时更新增长,然后查看了报表所依赖的五张sqlserver的表,发现,只有1张的数据是正常写入的,还一张数据非正常写入,还有3张完全没有数据写入.刚开始认为是不是数据库链接出问题了,但是!!!!我们的一个spark on yarn的批处 阅读全文
摘要:
近期想搭建一个测试用的集群,但是! 刚开始搭第一台虚拟机就出现问题了,Xshell无法连接到虚拟机! 然后我更改了/etc/sysconfig/network-scripts/ifcfg-ens33文件 内容如下 上面红框中的的网段选择应为公司的内网网段 以下红框为我的内网网段 其实出现这个问题,就 阅读全文
摘要:
原因 首先概述下起始原因:本来埋点的数据中传递来的URL只有http://开头的数据,所以上一个编写此程序的人在定义产品ID和出发口岸时加了这样的判断 阅读全文
摘要:
严谨转载--否则追究法律责任 作者 王加鸿 bug 1 解决方案 将这两个路径下的文件清空即可 ↑ 解决方案: 暂无(如无法连接,会自动创建连接,但可能长久后会造成连接过多) bug 3 解决方案:初步分析,是埋点数据产生的json格式解析出问题了 后来查看源代码在org.apache.flume. 阅读全文