github地址 --> 分享阅读经验 戳我star吧
兄弟们,看完了记得评论一下啊,觉得好的可以赞一下;觉得不好的也恳请各位留下意见啊
正文
Thread Model(线程模型)
- 如果事件处理可以很快被执行完,像内存标记那样,不需要分发出新的请求,那么它可以直接由I/O线程来处理,因为它减少了线程的分发。
- 如果事件处理起来很慢,或者需要发起新的I/O请求,比如查询数据库,那么这些事件应该在线程池中被执行。否则I/O线程可能会阻塞,导致不能接收新的请求。
- 如果事件被I/O线程处理了,并且在处理的期间发起了一个新的I/O请求,比如发起了一个登陆请求,它将提示一下Potentially leading to deadlock,但是实际上deadlock可能并不会发生。
因此,我们需要不同的分发策略和不同的线程池配置来面对不同的场景。
<dubbo:protocol name="dubbo" dispatcher="all" threadpool="fixed" threads="100" />
Dispatcher(分发器)
- all:所有的消息都会被分发到线程池里,包括请求,响应,连接事件,断开连接事件和心跳。
- direct:所有的消息都会由I/O线程直接执行,不会被分发给线程池
- message:只有请求/相应消息会被分发给线程池,其他消息比如连接,心跳等消息都会由I/O线程直接处理
- execution:仅仅请求消息会被分发给线程池,其他消息都会由I/O线程直接处理
- connection:连接,断开连接会被放到队列里,然后由I/O线程依次处理,其他消息会被分发给线程池。
Thread pool (线程池)
- fixed:数量固定的线程池,默认启动时创建线程,不会关闭线程;
- cached:一个缓存的线程池,如果一个线程空闲了一分钟以上就会自动删掉这个线程。如果需要了会再次创建
- limit:弹性线程池,但是只能单向的增加线程池数量。理由是可以避免当减少线程池中的数量时出现的流量尖峰从而造成的性能问题。
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 智能桌面机器人:用.NET IoT库控制舵机并多方法播放表情
· Linux glibc自带哈希表的用例及性能测试
· 深入理解 Mybatis 分库分表执行原理
· 如何打造一个高并发系统?
· .NET Core GC压缩(compact_phase)底层原理浅谈
· 手把手教你在本地部署DeepSeek R1,搭建web-ui ,建议收藏!
· 新年开篇:在本地部署DeepSeek大模型实现联网增强的AI应用
· 程序员常用高效实用工具推荐,办公效率提升利器!
· Janus Pro:DeepSeek 开源革新,多模态 AI 的未来
· 【译】WinForms:分析一下(我用 Visual Basic 写的)