influxdb 内存爆满卡死的问题
查了很多资料攒的配置文件,还有influxdb不能用supervisor启动,不然几个小时候只有又爆了。两台机器就一个重复出现这种问题,以现有业务简单加的配置,reporting-disabled=true 关闭上报后
暂时没出现问题。后续有问题再更新
最近有时间看了下代码,发下查询语句里面有很多 select * ,优化之后没有出现类似问题了。
[root@rabbitmq1 data]# grep -v "^$" /etc/influxdb/influxdb.conf|grep -v "#"|grep -v "###"
reporting-disabled = true #关闭上报功能
[meta]
dir = "/var/lib/influxdb/meta" #meta数据存放目录
[data]
dir = "/var/lib/influxdb/data" #存储最终数据(TSM文件)的目录,此目录可能会更改。
wal-dir = "/var/lib/influxdb/wal" #预写日志(WAL)文件的存储目录。
index-version = "tsi1" #基于时间序列(TSI)磁盘的索引,请将其值设置为tsi1。默认inmem 内存分片索引
trace-logging-enabled = false #是否开启跟踪(trace)日志,默认值:false。
cache-max-memory-size = "1g" #用于限定shard最大值,大于该值时会拒绝写入
cache-snapshot-memory-size = "25m" #设置快照大小,大于该值时数据会刷新到tsm文件,默认值:25MB
compact-full-write-cold-duration = "4h" #如果没有收到写或删除操作,TSM引擎将压缩一个分片中的所有TSM文件的时间间隔
max-series-per-database = 0 #限制数据库的series数,该值为0时取消限制,默认值:1000000
max-values-per-tag = 0 #一个tag最大的value数,该值为0时取消限制,默认值:100000
series-id-set-cache-size = 100 #TSI索引中用于存储先前计算的系列结果的内部缓存的大小,0禁用缓存,
[coordinator]
write-timeout = "10s" #写操作超时时间
max-concurrent-queries = 0 #最大并发查询数
query-timeout = "60s" #查询操作超时时间
log-queries-after = "0s" #慢查询超时时间
max-select-point = 0 #select语句可以处理的最大点数
max-select-series = 0 #SELECT语句可以处理的最大级数
max-select-buckets = 0 #select语句可以处理的最大"GROUP BY time()"的时间周期
[retention]
[shard-precreation]
advance-period = "10m" #预创建分区的最大提前时间,默认值 :30m
[monitor]
store-enabled = false #是否启用该模块,默认值 :true。
[http]
log-enabled = false #是否开启http请求日志,默认值:true。
max-row-limit = 10000 #系统在非分块查询中可以返回的最大行数。 默认设置(0)允许无限制的行数
[logging]
[subscriber]
[[graphite]]
[[collectd]]
[[opentsdb]]
[[udp]]
[continuous_queries]
log-enabled = true #是否开启日志,默认值:true。
[tls]
min-version = "tls1.2" #将协商的tls协议的最低版本
max-version = "tls1.3" #将协商的tls协议的最大版本