未来五年10大关键IT趋势

在涉及IT问题时试图保持领先,心脏不强的人可不能胜任。这一观点来自于Gartner的IT年度研讨会上由分析师David Cappuccio提出的他所谓的“不容易被IT界控制的新势力正把它们推向IT应用投资的前沿。”

云计算,社会媒体、网络,移动和信息管理这些势力都包括在内,它们都在快速发展。这些变革在不断上演,无视IT通常对技术使用的控制,Cappuccio表示。“几年前,IT被迫支持平板,最终用户迫使它们支持即时通讯和无线网络。更多的这种技术即将来临”,他说。

Cappuccio的介绍列举了以下的“十个在未来五年内影响IT的关键趋势和技术”。以下内容来自于Cappuccio的报告:

1. 组织防御和瓦解:

企业用户期望与他们体验以消费者为主的应用和服务时同样的IT性能和支持。企业用户对客户满意度的要求远远超过了IT支持组织所能提供的。IT组织必须在IT服务台分析员技能和属性上面投资,恰当地组织来增加IT对于其他组织的认知价值。企业用户满意度会成为一个移动目标,但在IT服务台层面实现更高的生产力水平表明IT组织在意企业,而且它致力于确保用户实现他们的目标。虽然关注于传统的培训,规程,安全访问,知识管理和脚本是有必要的,但是关注下一代支持技能,以有效满足企业的需求和期望则是至高无上的。

2. 软件定义网络:

软件定义网络是一种让网络抽象化的手段,就像是服务器虚拟化抽象服务器一样。它将网络拓扑结构从计算机/端口的一次配置转变成一次链接到应用的流。抽象网络就像是管理程序抽象服务器一样,它会给予编程控制。有了软件定义网络,控制器就能一览整个网络拓扑结构,虚拟的和物理的组成部分都有,包括交换机,防火墙,模数转换器等,并提供配置和管理网络连接以及应用程序和操作者所需的服务的抽象试图。

OpenFlow是这个广义的网络隧道协议一个很好的例子,它提供一个通用的API,任何网络操作者都可以根据应用需求,用它来创建自己的控制和管理方案。而且还将会有其他OpenFlow类型的软件定义网络协议,以一个应用级逻辑为底层而设计,而不是从传统的网络范式的协议,设备和基于链路的思路出发。

当使用带有像OpenFlow封装的软件定义网络时,它可以用来动态地将私有云扩展到混合模式,让企业的具体IP地址不暴露给云供应商的设备。软件定义网络还允许服务供应商提供动态预分配的WAN服务,可能跨越多供应商/多厂商网络。当然,有可能像传统网络技能开始转变一样,也会有明显的组织性瓦解,与特定厂商产品或平台保持一致也变得没那么严格了。

3. 更大型的数据和存储:

一个事实伴随数据中心多年,今天依然如此:数据增长势头不减。从IT的角度来看,主要问题之一是不是对该问题的认识,而是问题的优先次序。我们花了很多年的工夫来处理这个问题,而且它依然存在,那就是存储管理项目通常是从头开始,而不是从自上而下,把许多这些项目变成了几乎没有长期投资的“非常规”状态。

领先的企业已经意识到了这个问题,并开始关注存储利用和管理,将此作为降低地面空间和能源利用的一个手段,在数据中心发展的过程中改进依从性并加强控制。现在就该着手进行了,因为未来五年的最大发展都在非结构化数据上——从过程或工具的角度最难以管理。未来几年将成为关键的技术有内联重复数据删除,数据自动分层,为高端性能优化,但显著降低能源成本的闪存或固态硬盘。NAND的价格仍会快速变动,从1997年的每G 7870美元降到了现在的每G 1.25美元——这一趋势还将继续。

4. 混合云服务:

供应商越来越多地为许多旧的技术和产品贴上云计算的营销标签,尽管云计算是各种企业和网络技术与趋势的自然演变,但简单地把这些旧的技术重新贴上“云计算”的标签是一个错误。这一新的计算模型在解决方案的设计,建立,交付,获取和管理的方式上推动了革命性地变化。

云计算深受互联网和它的供应商的影响。像谷歌这种的公司提供了各种建立在大规模并行架构的服务,高度自动化,通过软件技术提供可靠性,而不是高可靠性的硬件。虽然对于小公司来说成本是一个潜在的好处,但云计算最大的好处就是天生的弹性和可扩展性,它减少了壁垒,使这些公司快速成长。混合云服务是由增加它们之中任何一个的能力(聚合服务,定制,或将而这整合),或是额外能力的结合所组成。

在混合数据中心有一个新兴的趋势,就是成长性是从应用临界性和地域性的角度来衡量的。举个例子,如果数据中心正在接近能力极限,而不是开始计划确定和建立另一个站点,工作量的评估是以业务的关键性,风险损失,易迁移来为依据的,要做出决定把一些工作量交给主机托管设施,代管主机,或甚至是一个云类型服务。这为现有站点的未来成长释放了地面空间,既解决了规模问题,又可能将资本的花费向后推迟很多年。还有一种方法,对于老旧的数据中心,要开始把关键工作迁移出本地,从而减少停机风险和业务中断,同时还解放了老的数据中心,用于额外的工作(非关键性的),或是用于缓慢的,原地的改造项目。

5. 客户服务器:

在过去的二十五年的个人电脑世界里,操作系统和应用程序主要都是停留在桌面(一些大型和复杂的应用程序,比如ERP位于服务器上,可从客户端远程使用)。如今,一切都变了!操作系统以及应用程序在需要时可以在PC或服务器或到PC的流上执行。架构的选择取决于用户的需要和实施期限。

关于Windows 8的部署,90%的企业将绕过大规模部署,并只将重点放在具体平台(例如,移动设备,平板)上的Windows 8部署的优化上。服务器一直在经历着长期的演化过程。它们从独立的基座演变到机架式的机柜。x86服务器硬件演变的最新阶段便是刀片服务器。它把硬件从原先的机柜中带有内部外设的独立服务器,变成一个带有公用背板,散热和电力资源的单独机箱中放有更密集的服务器的形式。一个真正的组件设计可以允许单独添加更小的部件,比如处理器,内存,存储和I/O元件。

由于刀片的发展,还有服务器提供商的市场推广,把刀片定位为服务器进化中下一个最先进的技术,甚至在某些情况下,成为最终的服务器解决方案。要更多的审视这些因素——所需密度,电源/散热效率的要求,高可用性,工作量等——来发现刀片,机架真正的优势有哪些。随着设备使用的增加和专用服务器开始出现(比如分析平台),继续这种演变将会分成多个方向。

6. 物联网:

这是一个概念,它描述了当消费电子类设备或有形资产这样的物理物品连接到互联网时,互联网会如何发展。这一愿景与概念已存在多年了;然而,被连接的物品的数量和类型以及识别,感知和通信的技术都在加速。关键的进展包括:

嵌入式传感器:检测变化的传感器(比如,加速度传感器,GPS,指南针,摄像头)不仅嵌入到移动设备中,还嵌入到了越来越多的地方和对象上。

图像识别:图像识别技术力求辨别物体,人,建筑,场所,标志和任何其他对消费者和企业有价值的东西。装有摄像头的智能手机和平板电脑把这种技术从工业为主的应用推向广大消费者和企业应用。

近距离无线支付:近距离无线通信技术可以让使用者通过在兼容的接收器前轻摇他们的手机就能完成支付。一旦近距离无线通信技术被嵌入到大量的手机上用于支付,公共交通,航空,零售和医疗这样的行业就可以寻找其他该技术提高效率和客户服务的领域。

7. IT应用设备管理失控:

在组织为应用的功能要求提供解决方案时,它们通常会被设备所吸引,但它们也会在管理功能需要额外投入(时间或软件)时排斥设备。因此,成功的设备产品不仅要提供一个有成本效益的解决方案,它们还必须要有最低的管理开销。

尽管历史成功与失败参半,厂商还是不断将设备推向市场,因为设备模式对厂商来说代表了一种独特的机会,可以对解决方案栈有更多的控制,还能在销售中赢得更大的利润。简而言之,设备不会立刻消失。但设备上的新进展是虚拟设备的引入。虚拟设备可使服务器供应商在一个可控的环境下提供一个完整的解决方案栈,而不用提供任何实际的硬件。我们看到虚拟设备的日益普及并满怀期待看到各式各样的虚拟设备产品在未来五年内出现。然而,虚拟设备的发展不会让物理设备消亡;像物理安全性,专门的硬件需求和生态关系这样的问题会让物理设备的需求继续出现。

设备技术的疯狂使用让一些供应商和用户产生了很大的担忧——尤其是对于物理设备。严格地说,像甲骨文的Exadata或VCE Vblock这样的高度集成的平台不是真正意义上的设备;这些是厂内集成系统,需要一定程度的配置和调试,即便是在软件栈集成好以后;它们永远不会符合“比萨盒”的经典概念。虽然这种系统不会当成设备来买,但它们肯定会按设备的方式来卖。其他许多物理设备会更忠实于这一概念——它们会是即插即用设备,只提供非常明确的一套服务。

8. 运营复杂性:

IT复杂性的来源很容易发现。它们包括启动一个Oracle数据库,向其中输入初始化参数的数量(1600),使用思科交换机的手册的页数(2300)。复杂性增加了,那么,当我们结合几个要素再看呢,比如运行在VMware上的Microsoft Exchange。使这一复杂性更糟的是我们并没有物尽其用:历史研究表明,IT组织实际上只使用一个系统大约20%的特性和功能。这导致了大量的债务,其高维护成本为把本可以提高企业竞争力的项目所需的资金转移到这上面来。

9. 虚拟数据中心:

当我们进入虚拟化的第三阶段(第一阶段: MF/Unix,第二阶段:x86),我们发现虚拟化实例的比例越高,分布和连接的网络节点的工作量移动性越大,验证了fabric和云计算是可行的架构。随着越来越多的基础设施的虚拟化,我们正在重塑IT基础设施。我们在未来将看到更多可能性,"fabric"最终会智能到分析自己有违建立最佳路径策略规则的属性,将它们更改以匹配变化的条件,无需费力的参数调整。X86虚拟化是现代化的数据中心背后最重要的技术创新。有了它,我们看待计算机,网络和存储的方式将会是一个巨大的转变——从物理硬件到逻辑与解耦应用的转变。

10. IT需求:

对数据中心的环境影响有了更多的认识,就出现了一系列的数据中心效率指标的需要。大部分都已经提过了,包括电源使用效率(PUE)和数据中心基础设施效率(DCiE),试图在总交付设施电力与IT设备可用电力之间对应直接关系。虽然这些指标出于在数据中心之间比较的目的,会提供高级别的基准,但它们不提供任何标准来显示随时间逐步改进的效率。它们不允许监测电力供应的有效利用——只是电力供应和电力消耗的差异。

例如,一个数据中心电源使用效率评分可能是2.0,一个平均等级,但如果数据中心经理决定开始使用虚拟化把平均服务器利用率从10%增加到60%,而数据中心将更有效地利用现有资源,那么整体的电源使用效率可能完全没变。查看能耗的一个更有效的方式就是分析现有IT设备的有效电能利用率,相对于那个设备的性能来说。虽然这直观上可能很明显,典型的x86服务器运行在非常低的利用水平时,会消耗总能源的60%到70%。提高利用水平在功耗上只是一个名义上的影响,而真正显著的影响是在每千瓦有效性能上。

把IT资源推向更高的每千瓦有效性能可以产生双重效果,改善能源消耗并延长现有设备的寿命。PPE指标就是设计用于获得这种效果的。

posted on 2012-11-06 08:31  Three Apple  阅读(389)  评论(0编辑  收藏  举报

导航