同步多线程 分类: VC++ 2013-11-02 08:50 701人阅读 评论(0) 收藏
目 录
1概述
任何单个应用程序都不能完全使该处理器达到满负荷。当一个线程遇到较长等待时间事件时,同步多线程还允许另一线程中的指令使用所有执行单元。例如,当一个线程发生高速缓存不命中,另一个线程可以继续执行。同步多线程是 POWER5™ 和 POWER6™
处理器的功能,可与共享处理器配合使用。
SMT 对于商业事务处理负载的性能优化可达30%。在更加注重系统的整体吞吐量而非单独线程的吞吐量时,SMT 是一个很好地选择。
尽管SMT 可以使系统识别到双倍于物理CPU数量的逻辑CPU(lcpu),但是这并不意味着系统拥有了两倍的CPU能力。
SMT技术允许内核在同一时间运行两个不同的进程,以此来压缩多任务处理时所需要的总时间。这么做有两个好处,其一是提高处理器的计算性能,减少用户得到结果所需的时间;其二就是更好的能效表现,利用更短的时间来完成任务,这就意味着在剩下的时间里节约更多的电能消耗。当然这么做有一个总前提——保证SMT不会重复HT所犯的错误,而提供这个担保的则是在酷睿微架构中表现非常出色的分支预测设计。[1]
2同步
事件
1、 Event
用事件(Event)来同步线程是最具弹性的了。一个事件有两种状态:激发状态和未激发状态。也称有信号状态和无信号状态。事件又分两种类型:手动重置事件和自动重置事件。手动重置事件被设置为激发状态后,会唤醒所有等待的线程,而且一直保持为激发状态,直到程序重新把它设置为未激发状态。自动重置事件被设置为激发状态后,会唤醒“一个”等待中的线程,然后自动恢复为未激发状态。所以用自动重置事件来同步两个线程比较理想。MFC中对应的类为CEvent.。CEvent的构造函数默认创建一个自动重置的事件,而且处于未激发状态。共有三个函数来改变事件的状态:SetEvent,ResetEvent和PulseEvent。用事件来同步线程是一种比较理想的做法,但在实际的使用过程中要注意的是,对自动重置事件调用SetEvent和PulseEvent有可能会引起死锁,必须小心。
多线程同步-event
在所有的内核对象中,事件内核对象是个最基本的。它包含一个使用计数(与所有内核对象一样),一个BOOL值(用于指明该事件是个自动重置的事件还是一个人工重置的事件),还有一个BOOL值(用于指明该事件处于已通知状态还是未通知状态)。事件能够通知一个线程的操作已经完成。有两种类型的事件对象。一种是人工重置事件,另一种是自动重置事件。他们不同的地方在于:当人工重置的事件得到通知时,等待该事件的所有线程均变为可调度线程。当一个自动重置的事件得到通知时,等待该事件的线程中只有一个线程变为可调度线程。
当一个线程执行初始化操作,然后通知另一个线程执行剩余的操作时,事件使用得最频繁。在这种情况下,事件初始化为未通知状态,然后,当该线程完成它的初始化操作后,它就将事件设置为已通知状态,而一直在等待该事件的另一个线程在事件已经被通知后,就变成可调度线程。
当这个进程启动时,它创建一个人工重置的未通知状态的事件,并且将句柄保存在一个全局变量中。这使得该进程中的其他线程能够非常容易地访问同一个事件对象。程序一开始创建了三个线程,这些线程在初始化后就被挂起,等待事件。这些线程要等待文件的内容读入内存,然后每个线程都会访问这段文件内容。一个线程进行单词计数,另一个线程运行拼写检查,第三个线程运行语法检查。这3个线程函数的代码的开始部分都相同,每个函数都调用WaitForSingleObject.,这将使线程暂停运行,直到文件的内容由主线程读入内存为止。一旦主线程将数据准备好,它就调用SetEvent,给事件发出通知信号。这时,系统就使所有这3个辅助线程进入可调度状态,它们都获得了C
P U时间,并且可以访问内存块。这3个线程都必须以只读方式访问内存,否则会出现内存错误。这就是所有3个线程能够同时运行的唯一原因。如果计算机上配有三个以上CPU,理论上这个3个线程能够真正地同时运行,从而可以在很短的时间内完成大量的操作
如果你使用自动重置的事件而不是人工重置的事件,那么应用程序的行为特性就有很大的差别。当主线程调用S
e t E v e n t之后,系统只允许一个辅助线程变成可调度状态。同样,也无法保证系统将使哪个线程变为可调度状态。其余两个辅助线程将继续等待。已经变为可调度状态的线程拥有对内存块的独占访问权。
让我们重新编写线程的函数,使得每个函数在返回前调用S e t E v e n t函数(就像Wi n M a i n函数所做的那样)。
当主线程将文件内容读入内存后,它就调用SetEvent函数,这样操作系统就会使这三个在等待的线程中的一个成为可调度线程。我们不知道系统将首先选择哪个线程作为可调度线程。当该线程完成操作时,它也将调用S
e t E v e n t函数,使下一个被调度。这样,三个线程会以先后顺序执行,至于什么顺序,那是操作系统决定的。所以,就算每个辅助线程均以读/写方式访问内存块,也不会产生任何问题,这些线程将不再被要求将数据视为只读数据。
这个例子清楚地展示出使用人工重置事件与自动重置事件之间的差别。
P u l s e E v e n t函数使得事件变为已通知状态,然后立即又变为未通知状态,这就像在调用S e t E v e n t后又立即调用R e s e t E v e n t函数一样。如果在人工重置的事件上调用P u l s e E v e n t函数,那么在发出该事件时,等待该事件的任何一个线程或所有线程将变为可调度线程。如果在自动重置事件上调用P u l s e E v e n t函数,那么只有一个等待该事件的线程变为可调度线程。如果在发出事件时没有任何线程在等待该事件,那么将不起任何作用[2]。
临界区
2、 Critical Section
使用临界区域的第一个忠告就是不要长时间锁住一份资源。这里的长时间是相对的,视不同程序而定。对一些控制软件来说,可能是数毫秒,但是对另外一些程序来说,可以长达数分钟。但进入临界区后必须尽快地离开,释放资源。如果不释放的话,会如何?答案是不会怎样。如果是主线程(GUI线程)要进入一个没有被释放的临界区,呵呵,程序就会挂了!临界区域的一个缺点就是:Critical
Section不是一个核心对象,无法获知进入临界区的线程是生是死,如果进入临界区的线程挂了,没有释放临界资源,系统无法获知,而且没有办法释放该临界资源。这个缺点在互斥器(Mutex)中得到了弥补。Critical Section在MFC中的相应实现类是CcriticalSection。CcriticalSection::Lock()进入临界区,CcriticalSection::UnLock()离开临界区。
互斥器
3、 Mutex
互斥器的功能和临界区域很相似。区别是:Mutex所花费的时间比Critical Section多的多,但是Mutex是核心对象(Event、Semaphore也是),可以跨进程使用,而且等待一个被锁住的Mutex可以设定TIMEOUT,不会像Critical Section那样无法得知临界区域的情况,而一直死等。MFC中的对应类为CMutex。Win32函数有:创建互斥体CreateMutex()
,打开互斥体OpenMutex(),释放互斥体ReleaseMutex()。Mutex的拥有权并非属于那个产生它的线程,而是最后那个对此Mutex进行等待操作(WaitForSingleObject等等)并且尚未进行ReleaseMutex()操作的线程。线程拥有Mutex就好像进入Critical
Section一样,一次只能有一个线程拥有该Mutex。如果一个拥有Mutex的线程在返回之前没有调用ReleaseMutex(),那么这个Mutex就被舍弃了,但是当其他线程等待(WaitForSingleObject等)这个Mutex时,仍能返回,并得到一个WAIT_ABANDONED_0返回值。能够知道一个Mutex被舍弃是Mutex特有的。
信号量
4、 Semaphore
信号量是最具历史的同步机制。信号量是解决producer/consumer问题的关键要素。对应的MFC类是Csemaphore。Win32函数CreateSemaphore()用来产生信号量。ReleaseSemaphore()用来解除锁定。Semaphore的现值代表的意义是可用的资源数,如果Semaphore的现值为1,表示还有一个锁定动作可以成功。如果现值为5,就表示还有五个锁定动作可以成功。当调用Wait…等函数要求锁定,如果Semaphore现值不为0,Wait…马上返回,资源数减1。当调用ReleaseSemaphore()资源数加1,当然不会超过初始设定的资源总数。
3技术问题
1、 何时使用多线程?
2、 线程如何同步?
3、 线程之间如何通讯?
4、 进程之间如何通讯?
先来回答第一个问题,线程实际主要应用于四个主要领域,当然各个领域之间不是绝对孤立的,他们有可能是重叠的,但是每个程序应该都可以归于某个领域:
1、 offloading time-consuming task。由辅助线程来执行耗时计算,而使GUI有更好的反应。我想这应该是我们考虑使用线程最多的一种情况吧。
2、 Scalability。服务器软件最常考虑的问题,在程序中产生多个线程,每个线程做一份小的工作,使每个CPU都忙碌,使CPU(一般是多个)有最佳的使用率,达到负载的均衡,这比较复杂,我想以后再讨论这个问题。
3、 Fair-share resource allocation。当你向一个负荷沉重的服务器发出请求,多少时间才能获得服务。一个服务器不能同时为太多的请求服务,必须有一个请求的最大个数,而且有时候对某些请求要优先处理,这是线程优先级干的活了。
4、 Simulations。线程用于仿真测试。
4线程通讯
线程常常要将数据传递给另外一个线程。Worker线程可能需要告诉别人说它的工作完成了,GUI线程则可能需要交给Worker线程一件新的工作。
通过PostThreadMessage(),可以将消息传递给目标线程,当然目标线程必须有消息队列。以消息当作通讯方式,比起标准技术如使用全局变量等,有很大的好处。如果对象是同一进程中的线程,可以发送自定义消息,传递数据给目标线程,如果是线程在不同的进程中,就涉及进程之间的通讯了。下面将会讲到。
进程之间的通讯:
当线程分属于不同进程,也就是分驻在不同的地址空间时,它们之间的通讯需要跨越地址空间的边界,便得采取一些与同一进程中不同线程间通讯不同的方法。
1、 Windows专门定义了一个消息:WM_COPYDATA,用来在线程之间搬移数据,――不管两个线程是否同属于一个进程。同时接受这个消息的线程必须有一个窗口,即必须是UI线程。WM_COPYDATA必须由SendMessage()来发送,不能由PostMessage()等来发送,这是由待发送数据缓冲区的生命期决定的,出于安全的需要。
第一步:设定一块内存共享区域。首先,CreateFileMapping()产生一个file-mapping核心对象,并指定共享区域的大小。MapViewOfFile()获得一个指针指向可用的内存。如果是C/S模式,由Server端来产生file-mapping,那么Client端使用OpenFileMapping(),然后调用MapViewOfFile()。
第三步:清理。UnmapViewOfFile()交出由MapViewOfFile()获得的指针,CloseHandle()交出file-mapping核心对象的handle。
第四步:同步处理。可以借助Mutex来进行同步处理。
3、 IPC
1)Anonymous Pipes。Anonymous Pipes只被使用于点对点通讯。当一个进程产生另一个进程时,这是最有用的一种通讯方式。
2)Named Pipes。Named Pipes可以是单向,也可以是双向,并且可以跨越网络,步局限于单机。
3)Mailslots。Mailslots为广播式通讯。Server进程可以产生Mailslots,任何Client进程可以写数据进去,但是只有Server进程可以取数据。
4)OLE Automation。OLE Automation和UDP都是更高阶的机制,允许通讯发生于不同进程间,甚至不同机器间。
5工作方式
随后,图中显示了粗粒度多线程方式,其中每次只有一个线程运行。当线程遇到长等待时间事件(如高速缓存不命中)时,硬件切换到第二个线程以使用处理资源,而不是让服务器保持空闲状态。此设计允许其他任务使用原本将空闲的处理器周期,从而提高了总系统吞吐量。为了节约资源,两个线程共享许多系统资源,如结构寄存器。因此,将程序控制从一个线程切换到另一个线程需要数个周期。
最后,图中显示了同步多线程方式,其中处理器同时从多个硬件线程检索指令。处理器将多个硬件线程中的指令调度为同时执行。借助同步多线程,系统将根据环境进行动态调节,从而允许在可能的情况下执行每个硬件线程中的指令;当一个硬件线程遇到长等待时间事件时,它还允许另一个硬件线程中的指令使用所有执行单元。
同步多线程主要在以下上下文中有用:
在单个速度不如所执行的总数重要的商用环境中。同步多线程将通过大型或经常变化的(如Web 服务器)增加工作负载的吞吐量。
6SMT
内容提要Power5 芯片是IBM Power 芯片家族中的新一代高端CPU 产品,它与Power4 在二进制上兼容,但在性能和功能上比Power4 有很大的增强。本文将介绍Power5 所支持的同步多线程技术Simultaneous MultiThreading 。
应用
在单个速度不如所执行的总数重要的商用环境中。同步多线程将通过大型或经常变化的工作集(如数据库服务器和 Web 服务器)增加工作负载的吞吐量。 具有高 CPI 计数的工作负载。这些工作负载往往很少使用处理器和内存资源。高 CPI 计数通常由大型工作机的高速缓存不命中率较高而导致。较大的商用工作负载在某些程度上取决于两个硬件线程是否共享指令或数据,或取决于两个硬件线程是否完全不同。共享指令或数据的工作负载可能从同步多线程中获得较大的好处,这些指令或数据可包括在操作系统中或单个应用程序中广泛运行的指令或数据。
说明
传统的CPU 在某一时间只能处理一个指令序列,通常我们把它称为一个线程。在线程处理的过程中CPU 的处理单元需要不断调入指令与数据进行处理。随着CPU 技术的发展,CPU 的主频与性能不断提高,需要调入指令和数据的速度不断提高。但不幸的是内存技术的发展并没有跟上CPU 发展的速度,内存通常无法提供足够的指令和数据给CPU
进行处理。
为了解决这个问题,业界通常采用多级缓存的方式。CPU 处理单元中的寄存器是最快的,通常一个CPU
中有一、两百个寄存器,它可以在一个时钟周期内提供指令和数据。其次是一级缓存,他的大小通常为几十KB
,它需要几个时钟周期的访问时间。再下面是二级缓存,他的大小通常为几MB ,它需要十几个时钟周期的访问时间。然后是内存,从内存中取得数据需要几十个个时钟周期。而最慢的是硬盘,通常需要几千甚至几万个时钟周期的访问时间。
当CPU 需要处理下一条指令时,他通常按照寄存器、一级缓存、二级缓存、内存、硬盘这一顺序去查找。但如果在内存中仍然找不到需要的指令或数据时。系统会进行Context
Switch ,终止此线程在CPU 上的运行,使其处于等待状态,而让其他的线程运行,当此线程需要的数据被调入内存后,此线程处于就绪状态,可以被调度到CPU 上运行。线程间的Context Switch 需要几十个时钟周期。
由此可见当CPU 需要从内存中取数据时,处理单元需要空转几十个时钟周期,有关统计显示当前CPU 处理单元的平均利用率不足25% 。为了提高CPU 处理单元的利用率,设计者采用了线程级的并行技术,即在CPU 的核心中执行一个以上的指令序列。对于操作系统来说,一个物理的处理器相当于两个逻辑的处理器,当前有三种不同的方式,实现多线程技术。
粗粒度的多线程,在任一时刻只有一个线程执行,当线程遇到一个长延迟事件时,如二级缓存不命中,则系统调度另一个线程执行,而不是让系统资源空转等待此线程。这一机制可以提高整个系统的利用率。这两个线程共享许多系统资源,如CPU
的寄存器和缓存等,因此这两个线程的切换比Context Switch 要快得多,只需要几个时钟周期。IBM 在使用PowerPC RS64 IV 处理器的pSeries 680 和pSeries 660-6M1 上使用过这种粗粒度的多线程技术。
另一种与粗粒度的多线程技术相对的是细粒度多线程技术,采用这种多线程的系统循环的执行两个线程的指令,这就需要在处理器的设计上增加许多冗余的部件。如果一个线程遇到个长延迟事件时,对应这一线程执行的时钟周期仍然没有被利用。
第三种多线程技术是同步多线程技术(SMT) ,与其他的多线程技术一样,同步多线程能够从多个线程中取出指令来运行,它能够同时执行不同线程的指令。通过同步多线程技术,系统能够动态调整系统环境,如有可能同时执行不同线程的指令。当一个线程遇到长延迟事件时,允许另一个线程使用所用的处理单元。
Power5 处理器的设计采用两路的同步多线程设计,虽然更多路的同步多线程也是可能的,但模拟现实,其所增加的系统的复杂性是不经济的。另外一个需要注意的问题是,同步多线程技术可能会由于缓存争用而降低整个系统的性能。
7微软技术
基于NetBurst架构的超线程:OOOE + SMT
基于Itanium架构的超线程:IOE + CMT
基于Atom架构的超线程:IOE + SMT
基于Nehalem架构的超线程:OOOE + SMT
同步多线程
SMT(Simultaneous Multi-Threading,同步多线程)实乃是一个专有名词,是一种类技术的名称,不仅仅Nehalem有采用,Pentium 4也有采用,还有很多其他商用处理器也有采用。正确的情况应该是,Nehalem的HT技术和Pentium 4的HT技术一样,都是属于SMT技术。
实际上,超线程技术在Intel的很多处理器里面都有使用,除了Pentium 4(NetBurst架构)、Core i7(Nehalem架构)之外,Itanium 2(Mondecito)和Atom(Silverthorne)处理器里面都有,然而它们携带的HT技术却不属于SMT!
在整理Intel的多种HT超线程技术之前,我们先来回顾一下MultiThreading多线程技术的分类,MultiThreading多线程就是在一个单个的处理核心内同时运行多个工作线程的技术,和CMP(Chip
MultiProcessing,芯片多处理)不同,后者是通过集成多个处理内核的方式来让系统的处理能力提升——也就是现在常见的多核技术。主流的处理器都使用了CMP技术。
然而CMP技术大规模增加了相应的电路,从而增加了成本,MT(MultiThreading)技术却不是
这样,它只需要增加规模很少的部分线路(通常,约2%)就可以提升处理器的总体处理器能力,从而可以很简单地提升相关应用的性能。
MultiThreading(或作Multi-Threading)来源于可以追溯到上个世纪90年代开始的一个叫做ILP(Instruction Level Parallelism,指令级并行化)的思想,这个思想产生了一个叫做Throughput Computing(吞吐量计算)的名词,用来提升如在线交易这样的并行计算的性能。Throughput
Computing的两种主要方式就是MultiProcessing和MultiThreading。
一开始,为了开发ILP,在过去的几十年中利用了超标量(Superscalar,同时具备多个执行器)、乱序执行(Out-Of-Order Execute,允许无数据关联性的指令同时运行)、动态分支预测、VLIW(Very
Long Instruction Word,超长指令集) 等技术(前三种可在经典的Pentium Pro架构上看到,最后一个就是Itanium的特色技术)。然而,超标量使设计的复杂性急剧增加,同时,指令之间的数据和控制相关,可以开发的ILP 也有限,以及一些其它因素,使得经典的超标量结构处理器难以进一步提高处理器性能。
而且从应用的角度看,如在线事务处理OLTP、决策支持系统DSS、Web服务等这样的应用的特点是具有丰富的线程级并行性(Thread
Level Parallelism)而缺乏ILP,因此也就促使了MultiProcessing和MultiThreading的出现。
MultiThreading多线程技术的思想有些类似于早期的分时共享计算系统,执行多个线程的处理器在遇到某个线程由于Cache Miss或者分支预测失败而停顿的时候,可以切换到另一个线程来执行。主流的MultiThreading具有着三种形式,差别在于线程间共享的资源以及线程切换的机制:
其中CMT和FMT都是在单个执行单元下的技术,不同的线程在指令级别上并不是真正的“并行”,而SMT则具有多个执行单元,同一时间内可以同时执行多个指令,因此前两者有时先归类为TMT(Temporal MultiThreading,时间多线程),以和SMT相区分。
首先介绍CMT——Coarse-Grained MultiThreading是因为:它是最简单的多线程技术,当单一执行线程遇到长时间的延迟,如Cache Missed时,就进行线程切换,直到原线程等待的操作完成,才切换回去。Coarse-Grained
MultiThreading有时也叫Block MultiThreading堵塞多线程或者Cooperative MultiThreading协作多线程。
由于CMT很简单,因此很多处理器都有实现,除了下面列出之外,很多嵌入式微控制器都有实现:
1999年的IBM RS64 III「Pulsar」(单核心/双线程)
2005年Fujitsu SPARC64 VI「Olympus-C」(双核心/4线程)
2006年Intel Itanium 2「Montecito」(双核心/4线程)
2007年Intel Itanium 2「Montvale」(双核心/4线程)
Intel的Itanium 2赫然在目
交错多线程
FMT——Fine-Grained MultiThreading随时可以在每个时钟周期内切换多个线程,以追求最大的输出能力——当然,随时可以切换也是有代价的,它拉长了每个执行线程的平均执行时间。Fine-Grained MultiThreading有时也叫Interleaved MultiThreading交错多线程或者Pre-emptive MultiThreading抢先多线程。
和CMT比起来,FMT要复杂一些,因此相应的处理器就没有那么多,例:
2005年Sun UltraSPARC T1「Niagara」(8核心/32线程)
2007年Sun UltraSPARC T2「Niagara 2」(8核心/64线程)
其实UltraSPARC T2同时还使用了其他的MT技术,才实现了比T1多了一倍的多线程能力,仔细看看上图,T2还使用了什么MT技术(注意第一段的CMT是Chip MultiThreading的意思而不是Coarse-Grained M
ultiThreading的意思)?
虽然CPU上使用FMT技术的并不 早在NV G40以及ATI R520开始,GPU内部就开始应用了FMT细粒度多线程技术,为了隐含Cache
Miss的存储器高延迟,GPU内部的执行单元不停的在工作线程之间切换,提升总的处理能力。不过,G40的FMT实现了具体多少个线程笔者倒不是很清楚,根据资料看应该在100左右。
前面说过,SMT其实和其他两种多线程技术都不同——那两种技术被称之为TMT时间多线程。SMT——Simultaneous MultiThreading具有多个执行单元,可以同时运行多条指令,因此才叫做“同步多线程”!SMT起先源自充分挖掘超标量架构处理器的潜力——超标量的意思就是可以同时执行多个不同的指令。因此SMT具有最大的灵活性和资源利用率,然而实现也最复杂(当然比起多核结构来说就是小意思了)。
2002年Intel Pentium 4 Xeon「Prestonia」(单核心/双线程)
2007年Sun UltraSPARC T2「Niagara 2」(8核心/64线程)
2008年Intel Core i7「Nehalem」(4核心/8线程)
这里又看到了UltraSPARC T2,这是因为它同时采用了FMT和SMT技术:因为UltraSPARC T2具有两个执行单元,每一个线程组使用一个,线程组内则按照T1那样执行4个线程。现代的GPU也采用了类似的混合设计:
不同的流处理器可以同时执行不同的线程,当然同一个流处理器也可以在不同的线程之间切换。
超线程技术
介绍了所有的MT多线程技术种类之后,我们可以来看Intel的HyperThreading超线程技术了,前面说过,Intel具有超线程技术的CPU有:Pentium
4(NetBurst架构)、Core i7(Nehalem架构)、Itanium 2(Mondecito)、Atom(Silverthorne)。我们已经知道具有超线程技术的Pentium 4/Pentium 4 Xeon(不是所有的P4都有超线程技术)采用的是SMT架构,Core
i7的则是其改进版本。我们再来看看Itanium 2:Itanium 2 Montecito采用了双核心设计,每核心两个线程;Itanium 2 Montecito的超线程技术采用了CMT架构; 可见,Itanium
2的超线程技术和Pentium 4的SMT不同,它实际上是CMT粗粒度多线程技术。这是因为Itanium 2是In-Order架构的,SMT的原始构想就是充分压榨OOOE(Out-Of-Order Execution)的能力,因此In-Order架构的Itanium 2就没有采用SMT的方式。因为要创建多个线程的代价太大。
那是否In-Order架构的处理器就不能实现SMT了呢?并不是,Intel的Atom就是一个典型的例子: 除了Atom之外,IBM的怪物Power6(起始频率4.7GHz)也采用了基于In-Order架构的SMT技术(Power5的SMT是基于Out-Of-Order):IBM Power6处理器,双核,每核两个线程;Power6:In-Order + SMT,Power5则是Out-Of-Order + SMT。[4]
8超线程
在NetBurst微架构后期,Intel为了维持性能上的优势,将Prescott核心的Pentium 4流水线拉长到31级;细化后的流水线可以被分成若干个环节,然后执行不同的任务进程,Intel将其称为“Hyper-Threading Technology(超线程技术,简称HT)”。但过长的流水线需要进行大量的分支预测工作,而且一旦预测失准,就要把当前的工作全部推倒重新来过。这就造成了Pentium
4 HT处理器空有高频率,发热量也大得惊人,性能却提高有限,最终还被扣上了“高频低能”的大帽子。
从原则上来讲HT技术绝对是一项非常有意义的创新和尝试,如果我们假设当初HT遇到的不是流水线冗长Prescott Pentium 4,而是更加精简高效的Core 2Duo,结果会怎样?
当然,只有14级流水线的Core 2 Duo最终还是与HT擦肩而过(当初的理由是过短的流水线没必要引入超线程技
术);但这并不代表Intel放弃了这方面的努力,Nehalem就在尝试做这样的事情。所不同的是,这次的主角有了一个新名字——Simultaneous Multi-Threading(同步多线程,简称SMT)。
版权声明:本文为博主原创文章,未经博主允许不得转载。