(github源码) 如何利用.NETCore向Azure EventHubs批量发送数据?
最近在做一个基于Azure云的物联网分析项目:
.netcore采集程序向Azure事件中心(EventHubs)发送数据,通过Azure EventHubs Capture转储到Azure BlogStorage,供数据科学团队分析。
为什么使用Azure事件中心?
Azure事件中心是一种Azure上完全托管的实时数据摄取服务, 每秒可流式传输来自website、app、device任何源的数百万个事件。提供的统一流式处理平台和时间保留缓冲区,将事件生成者和事件使用者分开。
- 事件生成者: 可使用https、AQMP协议发布事件
- 分区:事件中心通过
分区使用者模式
提供消息流式处理功能,提高可用性和并行化 - 事件接收者:所有事件中心使用者通过AMQP 1.0会话进行连接,读取数据
例如,如果事件中心具有四个分区,并且其中一个分区要在负载均衡操作中从一台服务器移动到另一台服务器,则仍可以通过其他三个分区进行发送和接收。 此外,具有更多分区可以让更多并发读取器处理数据,从而提高聚合吞吐量。 了解分布式系统中分区和排序的意义是解决方案设计的重要方面。 为了帮助说明排序与可用性之间的权衡,请参阅 CAP 定理
最直观的方式:请在portal.azure.cn门户站点---->创建事件中心命名空间---> 创建事件中心
.NetCore 准实时批量发送数据到事件中心
.NET库 (Azure.Messaging.EventHubs)
我们使用Asp.NetCore以Azure App Service形式部署,依赖Azure App Service的自动缩放能录应对物联网的潮汐大流量。
通常推荐批量发送到事件中心,能有效增加web服务的吞吐量和响应能力。
目前新版SDk: Azure.Messaging.EventHubs仅支持分批
发送。
- nuget上引入Azure.Messaging.EventHubs库
EventHubProducerClient
客户端负责分批发送数据到事件中心,根据发送时指定的选项,事件数据可能会自动路由到可用分区或发送到特定请求的分区。
在以下情况下,建议允许自动路由分区:
1) 事件的发送必须高度可用
2) 事件数据应在所有可用分区之间平均分配。
自动路由分区的规则:
1)使用循环法将事件平均分配到所有可用分区中
2)如果某个分区不可用,事件中心将自动检测到该分区并将消息转发到另一个可用分区。
我们要注意,根据选定的 命令空间定价层, 每批次发给事件中心的最大消息大小也不一样:
分段批量发送策略
这里我们就需要思考: web程序收集数据是以个数
为单位; 但是我们分批发送时要根据分批的字节大小
来切分。
我的方案是: 因引入TPL Dataflow 管道:
- web程序收到数据,立刻丢入
TransformBlock<string, EventData>
- 转换到EventData之后,使用
BatchBlock<EventData>
按照个数打包 - 利用
ActionBlock<EventData[]>
在包内 累积指定字节大小批量发送
- 最后我们设置一个定时器(5min),强制在BatchBlock的前置队列未满时打包,并发送。
核心的TPL Dataflow代码如下:
public class MsgBatchSender { private readonly EventHubProducerClient Client; private readonly TransformBlock<string, EventData> _transformBlock; private readonly BatchBlock<EventData> _packer; private readonly ActionBlock<EventData[]> _batchSender; private readonly DataflowOption _dataflowOption; private readonly Timer _trigger; private readonly ILogger _logger; public MsgBatchSender(EventHubProducerClient client, IOptions<DataflowOption> option,ILoggerFactory loggerFactory) { Client = client; _dataflowOption = option.Value; var dfLinkoption = new DataflowLinkOptions { PropagateCompletion = true }; _transformBlock = new TransformBlock<string, EventData>( text => new EventData(Encoding.UTF8.GetBytes(text)), new ExecutionDataflowBlockOptions { MaxDegreeOfParallelism = _dataflowOption.MaxDegreeOfParallelism }); _packer = new BatchBlock<EventData>(_dataflowOption.BatchSize); _batchSender = new ActionBlock<EventData[]>(msgs=> BatchSendAsync(msgs)); _packer.LinkTo(_batchSender, dfLinkoption); _transformBlock.LinkTo(_packer, dfLinkoption, x => x != null); _trigger = new Timer(_ => _packer.TriggerBatch(), null, TimeSpan.Zero, TimeSpan.FromSeconds(_dataflowOption.TriggerInterval)); _logger = loggerFactory.CreateLogger<DataTrackerMiddleware>(); } private async Task BatchSendAsync(EventData[] msgs) { try { if (msgs != null) { var i = 0; while (i < msgs.Length) { var batch = await Client.CreateBatchAsync(); while (i < msgs.Length) { if (batch.TryAdd(msgs[i++]) == false) { break; } } if(batch!= null && batch.Count>0) { await Client.SendAsync(batch); batch.Dispose(); } } } } catch (Exception ex) { // ignore and log any exception _logger.LogError(ex, "SendEventsAsync: {error}", ex.Message); } } public async Task<bool> PostMsgsync(string txt) { return await _transformBlock.SendAsync(txt); } public async Task CompleteAsync() { _transformBlock.Complete(); await _transformBlock.Completion; await _batchSender.Completion; await _batchSender.Completion; } }
低频的时候 定时器起作用,队列未满强制打包发送。
这样在高频的时候是接近实时,低频的时候最大延迟5分钟发送。
总结
- Azure事件中心的基础用法
- .NET Core准实时分批向Azure事件中心发送数据,其中用到的TPL Dataflow是以actor模型:提供了粗粒度的数据流和流水线任务,提高了高并发程序的健壮性。
本文来自博客园,作者:{有态度的马甲},转载请注明原文链接:https://www.cnblogs.com/JulianHuang/p/13230907.html
欢迎关注我的原创技术、职场公众号, 加好友谈天说地,一起进化
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?