扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
每当有人开始打着“标准”的旗号,通常就是“战争”的前奏。随着开放数据中心联盟(Open Data Center Alliance)的创建,70多家TI机构(其中一些是IT提供商)参与其中,Intel正试图将自己定位为未来云战争中的一个中立者。瑞士因其作为交战国家的银行而受益,英特尔则通过维持和扩大在服务器领域的主导地位而受益。
在计算机行业,标准是一柄双刃剑。也就是说,标准从某种程度上来说是一种和平的产物,是交战双方之间的对比,他们彼此争论不同硬件和软件如何接入彼此的而设备,或者用户和设备如何与运行在系统中的软件进行通信(这是合作的优势)。但同时,标准也是一样挥舞着的武器(这是竞争力)以刺伤对手,将他们赶出数据中心或者桌面这些有利可图的领域。
当然,没有人会反驳标准。这有点像反对世界和平,或者试图说服大家没有生命、自由和追求幸福的权利。但是在计算机企业中是很难实施标准——真正的标准,合作发展,得到厂商们的任何,以及获得终端用户的资金支持。
通常,标准是由某个市场内尚存活着的最后一人来设定的。这就是我们如何得到了TCP/IP,而不是其他无数的网络协议。这也就是为什么仍然没有一个Unix标准,或者刀片服务器标准,甚至是虚拟机标准——而且永远也不会有。标准“强权即公理”的一面也是人们为什么将x64服务器作为“行业标准服务器”,实际上就是“那些打败其他平台使其消亡、或者使其过时的批量出货服务器”。
事实上,近日Intel数据中心群组总经理Kirk Skaugen在旧金山发布开放数据中心联盟的时候,就拿x86和x64服务器举例说明Intel知道如何创建标准,并证明其作为唯一技术顾问和非投票成员是有道理的。
Skaugen提醒大家,在90年代初,Intel公布奔腾Pro芯片预示着服务器计算新时代的来临,Intel在服务器占有非常微小的份额,但到1995年,市场消耗的100万部服务器中,Intel已经占到了10%的份额。到2000年,由于网络泡沫破灭以及采用Linux操作系统的“Webby”基础架构,该市场的规模增长到了400万部。
随着Intel召集了操作系统和其他软硬件厂商,该市场的规模现在已经达到700万部,其中Intel占到了大多数出货量,最近几个季度,平均份额在96%~97%之间。Skaugen表示,目前运行在云中的系统,10个有9个都采用的是至强处理器。此外,他还很看好未来发布的“Sandy Bridge”至强处理器,并称其是“下一代云的基础”。
Skaugen没有说的是,最近这十年,有半数的x86和x64服务器销售导致一个问题,那就是首先要求有服务器虚拟化。采用合适的Unix操作系统和完善的工作负载管理工具,再加上不断增强的Intel芯片,接下来服务器率利用将越来越高,Intel可能会越来越“穷”。
企业可能会通过更换掉专有大型机和迷你设备、采用Unix设备来节约成本,但是最终要面对不断飙升的数据中心成本、越来越低的服务器利用率和更高的软件许可费,等等。而现在,有了服务器虚拟化,企业正试图恢复从前的好日子:有一个集中化和虚拟化的工具来支持应用(不要误会我,Unix也需要虚拟化,正如专有OS/400和OpenVMS操作系统一样。它们并不是一整天都是全速运转的,但是好于Linux和Windows)。
x64芯片统治服务器芯片市场的实施并不意味着它们就是一个标准,尽管Intel可能希望如此。芯片和系统设计并没有一个开放的规范,也没有社区监督组织。当然,我们有USB和PCIe外设标准、内存模块标准、磁盘尺寸和机架尺寸标准,以及其他各种标准。但是Intel或者AMD的用户、合作伙伴和竞争对手不可能在未来x64服务器平台方面有发言权。Intel有问过你,你希望从下一代芯片中获得什么了吗?没有。你只是等着看他们会提供什么,就像我们大家一样。
ARM——另一对立面
下一代客户设备似乎非常需要ARM处理器,为什么下一代服务器平台不能是基于多核ARM芯片(来自于一系列被ARM许可和软件合作伙伴——例如愿意追寻新市场的Windows厂商微软和Linux厂商——所采用的标准)。毕竟,Intel在桌面领域的优势扩大到了数据中心领域。就像是一个可重复的把戏。
如果Intel希望人们遵循以项标准,那么就要对抗ARM的威胁并联合全球最大的IT厂商——最初那70多家总年均IT开支在500亿(占到全球总IT开支的4%)以上的成员,不久这个数据可能会达到数千亿美元。
如果全球IT厂商联合起来,让IT厂商创建真正的标准,这将是非常好的一件事。我们从来没有一项Unix标准,但我们确实从交战双方那里得到了一些Unix共性。之所以20世纪80年代发生开放式系统的变革,那是因为企业厌倦了关于专有大型主机和微型计算机将要灭亡的说法。
从长远来看,Unix赢得了标准之战,但是市场向Windows倾斜,Windows已经成为像x64处理器一样的标准。
一切都没有改变,而开放之战仍在继续。这只是发生在某些领域的事,现在涉及到了云端。
每当厂商谈论标准并宣称他们希望消除厂商锁定的时候,你必须要有所质疑。要么他们傻,要么他们认为你傻,或者他们都是骗子。或者他们是两个厂商,也许在极少数情况下是三个。(相信我,有些厂商会相信他们自己的谎言)举例来说,Red Hat正在推广他们的Delta Cloud标准,不仅因为他们是IT市场的一员,而且,如果有了开放标准,企业可以更轻松地从VMware昂贵的虚拟化和云管理产品迁移到Red Hat更便宜的产品上来。
当我们试图确定一个市场格局的时候,总是寻找其中的控制点。当系统市场中的IT厂商有他们自己的芯片和操作系统时——通常是一个平台上的多个操作系统,通常至少会提出一个类似Unix标准的东西,因为在这其中锁定更加深入,例如在芯片内的指令层和传统应用中。在这些条件下,你让一些厂商同意通过API让应用更加便携——主要因为那些推动系统销售的软件厂商坚持这么做,购买他们代码的IT机构也紧跟其后。
但目前,当谈到服务器的时候,厂商锁定是存在于所有围绕x64平台的东西中——刀片服务器的尺寸规格、优先选择的hypervisor和平台操作系统、针对这款设备进行优化的系统管理工具。锁定越来越来少,但准确地说仍是服务器制造商想要摒弃的。同样对于服务器hypervisor厂商,他们现在只是作为如昔日的物理服务器厂商,他们的管理控制台不兼容,虚拟机格式不兼容,等等。他们不仅希望厂商锁定,而且他们的业务模式取决于尽可能推迟标准的出台。
当然,这让他们直接与ODCA形成竞争。对于全球的首席新习惯来说,他们为大量服务器机架和应用孤岛而头疼,无法用更少的钱做更多的事。
他们希望的正是Skaugen所说的:联合的私有云和公共云,允许工作负载无缝地在两者之间迁移,他们不希望为安全问题和厂商锁定而担心。事实上,笔者认为,管理由虚拟服务器组成池、不同能耗管理策略、基础架构的定价,等等这些都是十分复杂的,只能通过自动化使其正常工作。这意味着管理基础架构的开支更少,同时提高灵活性。
但是,想要的董事并不能让其成为标准。英特尔从中能得到的唯一好处就是它能获得ODCA成员所讨论的内部消息。每个对英特尔有利的标准,同样也会对皓龙、Sparc、Power甚至是ARM有利。