RDTSC指令相关的收集

RDTSC的确高效,但在当前主流环境下并不能保证准确计时,主要原因有两个:

一. 各个CPU(Core)之间的TSC寄存器值不保证会同步(取值一致)。由于我们程序一般不会设置CPU亲和性,因此线程刚开始在这个core上跑,后面别切换到其它core上跑,是一种很常见的情况。因为不同CPU间的TSC寄存器初始值可能不同,两次取值相减则可能会算出不正确的值;

二. CPU运行频率会经常动态调整,而某些CPU的TSC值增加的速度与CPU实际运行频率相关(当然也有较新的CPU是采用恒定速度,与实际运行频率无关的)。因此从全面的角度来说,TSC差值无法准确的转换为绝对时间;

维基百科有这么一段:
Under Windows platforms, Microsoft strongly discourages using the TSC for high-resolution timing for exactly these reasons, providing instead the Windows APIs QueryPerformanceCounter and QueryPerformanceFrequency.[2] Under *nix, similar functionality is provided by reading the value of CLOCK_MONOTONIC clock using the POSIX clock_gettime function.

建议大家还是逐渐改为用OS提供的方法为好,虽然开销要大一些,但保证结果可信。

*************************

Intel的新CPU都带有 一致性TSC特性,也就是即使CPU主频变化TSC也会按照固定频率运转。Linux 2.6内核同时也会在多个CPU之间做TSC的同步

 

**************************

http://blog.csdn.net/Solstice/article/details/5196544

http://en.wikipedia.org/wiki/Time_Stamp_Counter

多核时代不宜再用 x86 的 RDTSC 指令测试指令周期和时间

 

陈硕
Blog.csdn.net/Solstice

 

自从 Intel Pentium 加入 RDTSC 指令以来,这条指令是 micro-benchmarking 的利器,可以以极小的代价获得高精度的 CPU 时钟周期数(Time Stamp Counter),不少介绍优化的文章[1]和书籍用它来比较两段代码的快慢。甚至有的代码用 RDTSC 指令来计时,以替换 gettimeofday() 之类的系统调用。在多核时代,RDTSC 指令的准确度大大削弱了,原因有三:

 

  1. 不能保证同一块主板上每个核的 TSC 是同步的;
  2. CPU 的时钟频率可能变化,例如笔记本电脑的节能功能;
  3. 乱序执行导致 RDTSC 测得的周期数不准,这个问题从 Pentium Pro 时代就存在。

 

这些都影响了 RDTSC 的两大用途,micro-benchmarking 和计时。

 

RDTSC 一般的用法是,先后执行两次,记下两个 64-bit 整数 start 和 end,那么 end-start 代表了这期间 CPU 的时钟周期数。

 

在多核下,这两次执行可能会在两个 CPU 上发生,而这两个 CPU 的计数器的初值不一定相同(由于完成上电复位的准确时机不同),(有办法同步,见[3]),那么就导致 micro-benchmarking 的结果包含了这个误差,这个误差可正可负,取决于先执行的那块 CPU 的时钟计数器是超前还是落后。

 

另外,对于计时这个用途,时间 = 周期数 / 频率,由于频率可能会变(比如我的笔记本的 CPU 通常半速运行在 800MHz,繁忙的时候全速运行在 1.6GHz),那么测得的时间也就不准确了。有的新 CPU 的 RDTSC 计数频率是恒定的,那么时钟是准了,那又会导致 micro-benchmarking 的结果不准,见 [2]。还有一个可能是掉电之后恢复(比如休眠),那么 TSC 会清零。 总之,用 RDTSC 来计时是不灵的。

 

乱序执行这个问题比较简单 [1],但意义深远:在现代 CPU 的复杂架构下,测量几条或几十条指令的耗时是无意义的,因为观测本身会干扰 CPU 的执行(cache, 流水线, 多发射,乱序, 猜测),这听上去有点像量子力学系统了。要么我们以更宏观的指标来标示性能,把"花 xxx 个时钟周期"替换"每秒处理 yyy 条消息"或"消息处理的延时为 zzz 毫秒";要么用专门的 profiler 来减小对观测结果的影响(无论是 callgrind 这种虚拟 CPU,还是 OProfile 这种采样器)。

 

虽然 RDTSC 废掉了,性能测试用的高精度计时还是有办法的 [2],在 Windows 用 QueryPerformanceCounter 和 QueryPerformanceFrequency,Linux 下用 POSIX 的 clock_gettime 函数,以 CLOCK_MONOTONIC 参数调用。或者按文献 [3] 的办法,先同步 TSC, 再使用它。(我不知道现在最新的 Linux 官方内核是不是内置了这个同步算法。也不清楚校准后的两个 CPU 的“钟”会不会再次失步。)

 

[1] http://www.ccsl.carleton.ca/~jamuir/rdtscpm1.pdf
[2] http://en.wikipedia.org/wiki/Time_Stamp_Counter

[3] x86: unify/rewrite SMP TSC sync code http://lwn.net/Articles/211051/

 

posted @ 2013-01-23 14:31  宇月--测试开发梦想家  阅读(1053)  评论(0编辑  收藏  举报