计算机是如何实现高精度、对性能没有较大影响的定时器的?
一、计算机是如何实现高精度、对性能没有较大影响的定时器的?
因为如果让我自己去实现的,我就只能写个for循环不停的判断当前系统时间是否到达指定时间
时钟中断我知道,但是中断的前提是达到临界条件,而这个临界条件就需要不停的去比较。我理解的这个定时器的精度就取决于 "比较的频率" ,例如1秒比较100次这种。那 "执行比较"的这个动作如果是放在用户空间的进程或线程线程里,可能会由于cpu上下文切换导致错过执行任务(实际情况没有),所以"执行比较"这个动作应该是放在内核空间里执行的,这样才没有上下文切换的问题。
如果比较的动作放在内核空间,所有定时任务的列表也应该是在内核里维护了一张表格。按照内核对性能的渴求,定时任务的表不可能是无限大的,必定是有限制的。但是目前在我的开发过程中没有遇到说定时任务数量超过限制的情况。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!