代码改变世界

kafka Net的用法

2022-04-02 14:43  蛮荒古神  阅读(281)  评论(0编辑  收藏  举报

1.Kafka相关知识

  • Broker:即Kafka的服务器,用户存储消息,Kafa集群中的一台或多台服务器统称为broker。
  • Message消息:是通信的基本单位,每个 producer 可以向一个 topic(主题)发布一些消息。
    • Kafka中的Message是以topic为基本单位组织的,不同的topic之间是相互独立的。每个topic又可以分成几个不同的partition(每个topic有几个partition是在创建topic时指定的),每个partition存储一部分Message。
    • partition中的每条Message包含了以下三个属性:Kafka基于文件存储.通过分区,可以将日志内容分散到多个server上,来避免文件尺寸达到单机磁盘的上限,每个partiton都会被当前server(kafka实例)保存。可以将一个topic切分多任意多个partitions,来消息保存/消费的效率。
      • offset:消息唯一标识:对应类型:long
      • MessageSize 对应类型:int32
      • data 是message的具体内容。
    • 越多的partitions意味着可以容纳更多的consumer,有效提升并发消费的能力。
  • Message:在Broker中通Log追加的方式进行持久化存储。并进行分区(patitions)。
    • 一个Topic可以认为是一类消息,每个topic将被分成多partition(区),每个partition在存储层面是append log文件。任何发布到此partition的消息都会被直接追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量),partition是以文件的形式存储在文件系统中。
    • Logs文件根据broker中的配置要求,保留一定时间后删除来释放磁盘空间。

      

    • Topic物理上的分组,一个 topic可以分为多个 partition,每个 partition 是一个有序的队列。partition中的每条消息都会被分配一个有序的 id(offset)。
    • 为实现稀疏存储,我们通过给文件建索引,每隔一定字节的数据建立一条索引

       

  • 为了减少磁盘写入的次数,broker会将消息暂时buffer起来,当消息的个数(或尺寸)达到一定阀值时,再flush到磁盘,这样减少了磁盘IO调用的次数。
  • Broker没有副本机制,一旦broker宕机,该broker的消息将都不可用。Message消息是有多份的。
  • consumer:消息和数据消费者,订阅topics并处理其发布的消息的过程叫做consumers。
    • 在 kafka中,我们可以认为一个group是一个订阅者,一个Topic中的每个partions,只会被一个订阅者中的一个consumer消费,不过一个 consumer可以消费多个partitions中的消息(消费者数据小于Partions  的数量时)。注意:kafka的设计原理决定,对于一个topic,同一个group中不能有多于partitions个数的consumer同时消费,否则将意味着某些consumer将无法得到消息。
    • 一个partition中的消息只会被group中的一个consumer消息。每个group中consumer消息消费互相独立。
  • 无状态导致消息的删除成为难题(可能删除的消息正在被订阅),kafka采用基于时间的SLA(服务水平保证),消息保存一定时间(通常为7天)后会被删除。
  • 消息订阅者可以rewind back到任意位置重新进行消费,当订阅者故障时,可以选择最小的offset(id)进行重新读取消费消息。

2.Net用法

producer端,引入Confluent.Kafka

Install-Package Confluent.Kafka

  

KafkaDistributedEventBusService

using Confluent.Kafka;
using Newtonsoft.Json;
namespace EventBus.Kafka;
public class KafkaDistributedEventBusService 
{
    private ILogger<KafkaDistributedEventBusService> logger;
    public KafkaDistributedEventBusService(ILogger<KafkaDistributedEventBusService> logger)
    {
        this.logger = logger;
    }

    protected  byte[] Serialize<T>(T eventData) where T : class
    {
        return System.Text.Encoding.UTF8.GetBytes(JsonConvert.SerializeObject(eventData));
    }
    protected T Deserialize<T>(byte[] eventData) where T:class
    {
        var data = System.Text.Encoding.UTF8.GetString(eventData);
        return JsonConvert.DeserializeObject<T>(data);
    }
    /// <summary>
    /// 发布
    /// </summary>
    /// <typeparam name="T"></typeparam>
    /// <param name="topic"></param>
    /// <param name="eventData"></param>
    /// <returns></returns>
    public virtual async Task PublishAsync<T>(string topic,T eventData) where T : class
    {

        var config = new ClientConfig { 
            BootstrapServers= "127.0.0.1:9092"
        };
        var ProducerPool= new ProducerBuilder<string, byte[]>(config).Build();
        await ProducerPool.ProduceAsync(topic, new Message<string, byte[]>
        {
            Key = Guid.NewGuid().ToString(),
            Value = Serialize(eventData)
        });
    }
    /// <summary>
    /// 订阅
    /// </summary>
    /// <typeparam name="T"></typeparam>
    /// <param name="messageFunc"></param>
    /// <param name="topic"></param>
    /// <param name="GroupId"></param>
    /// <returns></returns>
    public  void Subscribe<T>(string topic, Func<T, Task> messageFunc, string groupId = "GroupId") where T : class {

        var config = new ConsumerConfig(new ClientConfig
        {
            BootstrapServers = "127.0.0.1:9092"
        })
        {
            GroupId = groupId,
            EnableAutoCommit = false
        };


        var Consumer= new ConsumerBuilder<string, byte[]>(config).Build();
        Task.Factory.StartNew(async () =>
        {
            Consumer.Subscribe(topic);

            while (true)
            {
                try
                {
                    var consumeResult = Consumer.Consume();

                    if (consumeResult.IsPartitionEOF)
                    {
                        continue;
                    }
                    try
                    {
                        var data = Deserialize<T>(consumeResult.Message.Value);
                        await messageFunc.Invoke(data);
                    }
                    catch (Exception ex)
                    {
                        logger.LogError(ex, ex.Message);
                    }
                    finally
                    {
                        Consumer.Commit(consumeResult);
                    }
                }
                catch (ConsumeException ex)
                {
                    logger.LogError(ex, ex.Message);
                }
            }
        }, TaskCreationOptions.LongRunning);      
    }  
}
127.0.0.1