kafka优化

1、Producer优化 producer.properties

compression.type:none
默认发送不进行 压缩 ,推荐配置一种适合的压缩算法,可以大幅度的减缓网络压力和
Broker 的存储压力。

2、Kafka内存调整( kafka-server-start.sh

默认内存 1个 G 生产环境尽量不要超过 6个 G。export KAFKA_HEAP_OPTS=" Xms4g Xmx4g

 

 3、如果发送的消息过大如何解决?

可以设置压缩算法为snappy;

查看kafka配置,默认单条消息最大为1M,当单条消息长度超过1M时,就会出现发送到broker失败,从而导致消息在producer的队列中一直累积,直到撑爆生产者的内存。

         1.修改kafka的broker配置:message.max.bytes(默认:1000000B),这个参数表示单条消息的最大长度。在使用kafka的时候,应该预估单条消息的最大长度,不然导致发送失败。

       2.修改kafka的broker配置:replica.fetch.max.bytes (默认: 1MB),broker可复制的消息的最大字节数。这个值应该比message.max.bytes大,否则broker会接收此消息,但无法将此消息复制出去,从而造成数据丢失。

      3.修改消费者程序端配置:fetch.message.max.bytes (默认 1MB) – 消费者能读取的最大消息。这个值应该大于或等于message.max.bytes。如果不调节这个参数,就会导致消费者无法消费到消息,并且不会爆出异常或者警告,导致消息在broker中累积,此处要注意

posted @ 2021-04-12 16:11  再见傅里叶  阅读(802)  评论(0编辑  收藏  举报