摘要:
中间加了一层转换,日志从filebeat采集进入logstash,然后将日志中的时间字段覆盖到es的@timestamp字段,kibana会将这个字段当做是日志的上传时间 input { beats { port => 10515 } } filter{ if "xxx" in [tags]{ gr 阅读全文
摘要:
pipeline{ agent any environment { def appdir = "*" } stages{ stage('clear dir'){ steps{ echo "clear dir" sh ''' #!/bin/bash -xe rm -rf ./* ''' } } sta 阅读全文
摘要:
采集nginx日志的时候发现从filebeat采集的json日志到elasticsearch里面都是keyword类型,导致我模糊查询部分字段的时候无法模糊匹配,所以需要将某些字段改成text类型。 filebeat.inputs: - type: log enabled: true json.ke 阅读全文
摘要:
一、安装chartmuseum https://github.com/helm/chartmuseum https://blog.csdn.net/weixin_34226182/article/details/86278522 二、启动服务 export TENCENT_CLOUD_COS_SEC 阅读全文
摘要:
线上k8s在默认default命名空间下,可以正常转发,然后我将自定义一个命名空间后,发现一直报503,能改的东西我都改了。 最后发现是default命名空间下的域名没有删除干净。 kubectl get ingress -A 阅读全文
摘要:
1、解析不到对应的主机 [WARNING Hostname]: hostname "k8s-master-01" could not be reached [WARNING Hostname]: hostname "k8s-master-01": lookup k8s-master-01 on 19 阅读全文
摘要:
之前并没有研究过flask在大量不同请求的情况下请求的处理机制,最近发现自己的一个监控系统的Recv-Q 堆积过多,然后看了一下是程序的处理能力的问题。 1、看见服务器Recv-Q较多,消费不及时 [root@iZbp1ftexcphcvhbglvmz8Z ~]# netstat -tnlp Act 阅读全文
摘要:
今天有个开发同事说post参数没有正常传递,然后自己没事就研究了一下。。。 上面是正常的nginx配置。 然后一下是我服务端标准的restful api的代码: 接着是postman的请求 服务端正常返回,唉,差点又留下来没有技术的眼泪。 阅读全文
摘要:
某一天看见线上502突然陡增,然后就就开始了几天的故障发现之旅。 一、刚开始怀疑是不是负载均衡和后端的服务器之间的tcp连接超时,导致服务器断开了tcp连接。 后通过tcpdump抓包分析取消了这个怀疑。 1 tcpdump -i eth0 host 1.1.1.1 and tcp port 80 阅读全文
摘要:
从我开始用就一直更新参考:http://www.iocoder.cn/SkyWalking/install/?vip# 以前一直用的是,而且没有剖析的功能,只能适合服务间的监控。 from skywalking import agent, config config.init(SomeConfig) 阅读全文