对“计划”的进一步阐述

原评论如下:kw2006 评论于 2006-03-12 05:34
想来搂主已经研究过很多类似的专题。正好请教一下:
我猜想在能做到楼主提到的共享之前,本地资源的共享应该是第一步。目前有哪些公司和产品能够以(外部)模块的方式进行扩展,来提高计算能力?SMP cpu,SLI 显卡这类的不算,我是指通过外加模块的方式进行 cpu,gpu 能力的扩展,目前有哪些公司在提供这类的产品?各自通过什么方式?性价比如何?有什么技术瓶颈?
普通家庭软件(比如 video 处理)如何能够支持在多台 pc 上运行?比如我现在要花 2 小时 (cpu time) 来处理我的一段 video,但我有 5 台 pc,我如何能把它们利用起来?操作系统或应用软件需要什么样的改进能达到这个目的(实时)?


目前有哪些公司和产品能够以(外部)模块的方式进行扩展,来提高计算能力?
SMP CPU和SLI显卡这一类不算的话,那么最常见的就是计算机集群了(分布式运算或者普适计算、网格)。当然我们从CPU的发展史上来看FPU(浮点处理器)的应用就是一个很成功的外加模块提高性能的典范(即使现在的CPU大多数已经将其内建到了CPU封装中),而对于GPU的来说,Dual GPU On One PCB不知道算不算是“之类的不算”之列。
目前,不仅是公司,一些科研组织来自于国家都在研究基于“后分布式”的网格应用,从第一代的FAFNER(1995)与I-WAY(1995)起,第二代网格的代表Globus(1997.8)、Legion(1997.11)都在CORBA、Jini和RMI的基础上建立起来,目前正在开展的是第三代网格技术,主要是面向服务的应用,这就与Web的发展密不可分了。在基础设施和基础技术上来说,已经很成熟了,通过模块的方式进行扩张的例子不胜枚举(不论是硬件还是软件的模块扩展技术)。

对于一般商业化企业桌面网格体系结构:Entropia系统就是一个很好的实践,该系统是一个能够提供大型资源,且能够与服务器资源自然结合,从而形成一个企业网格的桌面网格系统。由Entropia公司接手的项目中最著名的就是GIMP(Great Internet Mersenne Prime Search)项目,开始于1996年,由Scott Kurowski与George Woltman发起。这项任务在该公司的网格系统上运行了5年时间,动用了超过200000台计算机,发现了第35号、第36号、第37号、第38号和第39号Mersenne素数,其中第39号素数位数超过4百万位。现在他们正在集中精力解决Windows平台下的网格应用相关问题(动态命名、间歇连接、无法信任的用户等),因为早期的研究成功都是基于UNIX系统之上的。

但是,如果要说“市场上一般人都能够买得到”的这类技术,也许真的是SMP CPU和SLI之流了,提一下Tyan有一款主板,可以采用主板并联的形式扩充CPU数量,支持AMD的皓龙处理器8xx系列,也就是说一般情况下主板上可以支持4个处理器,通过外加主板附加板,可以支持另外4个CPU,达到同时支持8个CPU的目的。(这种技术很早就出现在了中型机、大型机和超级计算机上了,只不过在工作站级的PC上还是第一次)。
目前就我所知的范围,并没有公司或者非科研组织提供很成熟的产品,但是这就说明了机会的存在……作为市场先入者的优势就在这里。

另外,对于你说的Vido处理一类的应用,在3DMax中提供了一个Backburn的工具,可以实现在多台计算机上同时对3D模型进行渲染的功能。另外,微软即将发布的操作系统Windows Cluster Computer Edition上也提供了任务负载平衡的功能,目前处在Beta2的阶段,通过设置计算机头结点(Head Node)和结点(Nodes),将计算进程(任务)添加到任务列表(Task List)中,就可以实现在多个结点实现并行运算的功能,这一点在易用性上已经提高到了前所未有的高度,当然,这也许要高速网络的支持(但是回想我初中时使用的拨号Modem,现在的网络速度在以前是不可想象的,我们有理由相信,G级网络接入桌面的时候不远了,上海宝山地区的光纤也入户了),在局域网环境下一般可视为实时的应用。
相关资料请参考微软网站上关于Windows HPC的相关介绍。

对于实时系统的应用,这与一般网络应用无异,都要仰仗网络速度的提升 : )

更多内容正在积极整理

posted on 2006-03-12 13:17  NGNGrid  阅读(492)  评论(0编辑  收藏  举报