扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
ZDNet至顶网服务器频道 01月22日 新闻消息:计算资源跑在云里,弹性存储分布在存储池中,网络可以任意配置和调度,这种高度灵活的软件定义数据中心是所有IT经理们梦寐以求的。但是另一方面,云计算和存储资源的高可靠与高可用性也不断受到分析师们的质疑,也使得CIO和IT经理们对软件定义的数据中心持保守态度。说穿了,软件再怎么定义数据中心,也无法改变硬件基础架构所赋予的特性:如可靠性、互联互通性、标准和兼容性等等。哲人说“下层基础决定上层建筑“,笔者愿意通过本文来讨论一下软件灵魂和硬件基础的关系,进而展望什么样的硬件基础平台能支撑起软件定义的未来。
皮之不存毛将焉附
3月份的日内瓦车展上,苹果展示了其跨界的功力:再一次用“CarPlay”车载系统重新定义了汽车中控系统。事实上,业界普遍把苹果“CarPlay”称作智能车载系统,以和过去的行车电脑做区分。这一幕非常类似乔布斯2007年发布“iPhone”时的场景——真正告诉了大家什么叫智能手机。简单来看苹果做了件很简单的事情,就是将已经成熟的iOS一直到了汽车中,并且结合开车人的使用习惯对应用做了调整,通过Siri语音、iPhone的自动连接,让CarPlay从功能到使用体验上都非常的友好。
这是软件定义的极致——让应用能灵活的跑在不同平台上,保持相同的体验。另一方面也显示了其在硬件基础架构上做的功课:如何能让“CarPlay”所支持的十多家汽车品牌的众多车型的不同硬件配置都能完美的跑该应用呢?而且为什么到今天才会有“CarPlay” 这样的系统出来,之前怎么没人发明出来? 我们暂且搁置这两个问题,看看下一个例子。
说弹性存储大家可能比较陌生,说Watson就要熟多了。毕竟在媒体上抛头露脸大放异彩的是IBM Watson系统的“超群智力”——在《危险边缘》比赛中,IBM Watson惊人的打败了人类选手获得冠军。有很多研究人工智能的专家都表示,Watson的强大在于其数据挖掘的强大和自我学习能力——能通过分析和决策判断出不同答案的胜出概率,进而得到答案。然而系统专家却表示,即便把这整套算法拿出来告诉参赛选手,同时给他们足够的数据来查询,最后得到答案的时间可能是数百年时间——显然Watson的出色不仅仅是软件的出色。
这就反过来衍生出了一个问题:究竟是越来越丰富的软件系统和应用,使得平平的硬件架构大放异彩;还是伟大的硬件设计,让软件得以发挥出无穷潜力?
在“CarPlay”的例子里的第一个问题就是不同硬件配置是不是能获得同样的应用体验? 当然不是。所以苹果严格限制了刚开始只能是奔驰、沃尔沃和法拉利来合作,而之后的十来家厂家需要用合适的硬件配置来“适应”苹果“CarPlay”。因为乔布斯有个逻辑:“我来到这个世界,不是为了把软件授权给别人装在那些蹩脚的硬件里。”这也是很多媒体猜测“CarPlay”只是苹果小试牛刀之举,其自主的汽车将随后而来。
说回来,为什么“CarPlay”今天才出现,因为过往的车载硬件无法支持苹果iOS的流畅体验,而无论是在后台默默工作Siri服务,还是iPhone的iCloud都基于庞大的数据中心支撑——敢问当成千上万辆装着“CarPlay”的汽车上路,其后台能够支撑么?恐怕这是直到如今,苹果才敢拿出这个系统的重要因素之一。
Watson的软件是神来之笔,是IBM众多科学家智慧的结晶,这毋庸置疑。那么请参考下面的数据:在回答《危险边缘》节目中的任何一题时,Watson需要使用2亿页结构化和非结构化数据,包括维基百科全文在内的5TB数据在短短几分钟内就被转入内存。而其处理器(如今的Watson已经只需要几个Power 8即可)需要在更短的时间内分析、筛选并得到答案。
可以说,如果Watson没有弹性的存储架构和强的Power处理器做支撑,是无法在规定时间内获得正确答案的;或者换一个角度,Watson将无法顺利运行那赋予它智慧的软件。这道理就像你无法在“大哥大”上运行安卓系统一样,软件是现成的,可是硬件无法承载。而如今的多核手机,已经可以玩当年在电脑上才能运行的“星际争霸”。
强大的硬件基础架构,是软件发挥潜力,支撑各类应用的基石。那么什么样的硬件基础能够适应软件定义的数据中心呢?
软件定义的硬件基础:高效+灵活
笔者一直喜欢把软件定义的数据中心和视频的软硬解码来做类比:如果调试过视频播放器的朋友就更有感受——使用硬件解码会发现CPU占用率低,但是能解码的资源较少;相反,如果用软件解码,就会发现CPU占用率很高,但是所有格式都能解码(解码包)。这就是典型的普通数据中心和软件定义的数据中心的区别,前者对干单独一个事情可以很高效,但是想迁移业务或者想做更多的事情就伤筋动骨甚至是不可能;而后者虽然万能,但是面临着效率低的痛苦。是这样么?
其实对于软件定义的数据中心来说,高效意味着件开销和可理性两方面的高效。举个例子来解释软件开销:因为使用软件来融合计算、存储和网络资源,所以这部分软件会对物理系统本身造成一定的开销——例如虚拟机软件本身自己需要占用一定的内存、CPU资源等等。而因为用软件来重新融合和分配了计算、存储、网络资源,因而管理和调度这部分的软件也需要高效起来,首先是要能管得了这么多资源——大家会发现很多管理软件有最大的虚机管理限制或者是存储资源限制就是如此;然后是要能尽可能少的消耗系统资源。
解决方案说简单也不简单:1.既然有开销,就让系统性能高出一截来抵消这部分开销就行了;2.软件写的效率高,少开销一些不就行了。然而,第一种方案有自欺欺人的感觉,也增加了企业成本;第二种方案则取决于软件开发的水平和开发平台——软件效率和调优不是一句两句说得清的。
那么再来看看灵活性。前面提到软件定义的数据中心其核心价值就是对于业务和应用来说拥有充足的灵活性。这也就要求硬件基础架构需要有着开放和标准的架构来满足软件和平台的多样性。如果平台的环境不标准,如运行着封闭的虚拟机管理系统(某软的),则很难与其他虚拟机管理平台互通,而网络、存储的封闭就更是如此。反过来,开放的硬件架构还意味着开放的生态环境。这可以为数据中心用户带来更多的选择。
简而言之,硬件是软件进化以及整体IT环境演变的基础。在面向未来的软件定义的数据中心中,一个高效灵活的硬件基础架构不可或缺。而这就意味着其硬件体系所能承载的软件拥有足够高的效率,还要有开放标准的架构来适应灵活性。
大象会跳舞:钢筋铁骨也灵动
对于很多人来说,认为“软件决定未来”的一个重要的佐证就是IBM近几年的变化——硬件的营收逐年下滑,而IBM自己也在向软件+服务的形态加速转型,并出售了x86服务器业务。这一表面的趋势似乎给人一种感觉——IBM正在放弃硬件。但如果深入分析,而更可以感觉到,IBM需要独有的硬件来帮助其更好构筑其差异化的软件与服务的优势。
IBM卖了x86的原因被各种分析。笔者看来无外乎两点:1、x86通用平台的可塑性并不掌握在服务器厂商手里,其作为硬件基础架构的心脏——CPU被Intel牢牢把持着。2、x86架构的天生缺陷,导致其软件效率并不高,这是再优秀的算法也难以弥补的。
那么保留下来的主力——Power平台,能否适应软件定义的数据中心,也就看其在高效和灵活性方面是否独树一帜。这里要说一句题外话,单从性能比意义不大,一方面Power的超高主频和多核心本来就强,每一代都强。二来,虽然价格不便宜,但是合计到每核心的性价比仍然有优势。三来,Power平台因为RISC架构的特殊性,其软件效率很高,尤其是面对数据密集型应用时(如下图)。
从效率角度来说,Power秉承了RISC(精简指令集)的优秀血统,其软件和代码执行效率极高。这也就是前文讨论的如何解决软件开销的第二个解决方案——让软件本身执行的效率提升,不必占用过高的开销。而最新发布的Power 8拥有50亿个晶体管,核心数量达到了12个,每个核心拥有8个线程,这又从第一个解决方案——单核心性能提升,进而消除了可能的软件开销,还能提升一大截性能。
在灵活性方面,IBM多年前就开始启用Power Linux平台,并陆续通过“天合计划”等几类了大量的装机用户和解决方案。在最新Power 8平台发布的同时,还公布了另外两个重要的成果:与Ubuntu Server 14.04的合作使得Power在OpenStack方面也站在了开源云环境的前列。而PowerKVM则是目前Linux环境中最广泛使用的KVM虚拟化平台的Power版本,可以完全兼容和迁移。这是Power一直以来在标准的开放环境方面不断努力合作拓展生态圈的结果。另一方面,从Power 8平台开始,Power开放了自身的架构,组建了OpenPOWER联盟,从根本意义上将硬件也开放给整个生态圈。
转头看另一个神秘事物——IBM主机系统,也就是Z系列的大型机。除了昂贵、高端之外,有没有别的形容词?金融,保险,高端零售行业(Walmart等)为什么纷纷采用大型机系统?因为翻遍了地球也找不到第二种硬件能够承载这些业务的应用——独一无二的硬件架构是为了提供前所未有的效率和可靠性。而如今的Z系列大型机也不是传统的大型机了,通过与Linux和OpenPOWER的不断融合,让新的IT趋势也开始享受到大机本身的优势,而这也将是IBM独有的优势。在不久的将来,IBM自己的SoftLayer云服务就会整合大机资源(z/VM虚拟环境+Linux实例),很多向往大机虚拟化环境但因成本在过去无法尝试的用户,将有可能通过云服务来获得大型主机的IT能力。而最重要的是,这一服务与能力则将是IBM独有的。
相比之下,相对于服务器(尤其是x86)来讲“更不透明”的存储系统,也给厂商们留出了巨大的发挥空间,对于IBM也不例外.作为发明硬盘的企业,IBM在存储方面积累的技术和解决方案足以让其硬件独步天下——Watson的弹性存储就是软件定义的,根据IBM研究院的研究结果,其弹性存储系统能够在仅仅43分钟内利用单个系统成功扫描100亿个文件,也为通过分析海量数据来挖掘业务洞察的客户提供了无与伦比的性能。
如果说Power平台的高效和大型机的超强性能、可靠性秉承了IBM一直以来的钢筋铁骨,那么近年来无论是Power还是大型机的开源开放则赋予了这些产品线一颗灵动的心,这为上层的系统和应用软件奠定了强有力的基础。
所以,如果你是IBM的CEO,当你拥有的硬件正在不断为你提供并保持着软件应用环境的差异化优势时,你会将其出售吗? 答案显然是明确的“No”——出售x86服务器业务,在新的云趋势中以SoftLayer来代替,满足与其他x86服务商竞争的需求,而在此基础上,借助POWER与System z大型主机与云、大数据等领域的深度结合,将让IBM在这些领域中的软件平台、应用环境与用户服务具备更强的竞争实力。从而也进一步诠释了硬件与软件垂直化协作的优势,以及优秀硬件平台基础的重要性。
总结
Gartner最近提出了一个新的定义:SDA(软件定义的软件架构),其意义是引入API网关,将企业内部的应用虚拟化、外部用户和各种终端通过API松耦合的使用,提高系统使用率。其实就是共用这些软件的公共部分来简化系统运行。这可以看做是对不同应用软件自身的一种整合和调度,而之前的SDN、云计算、弹性存储则是对硬件的整合调度。但是再如何整合、调度,都免不了前文所讨论的软件定义所带来的效率、灵活性问题。
对于面向未来的软件定义的数据中心,硬件基础架构无疑是其上层软件和管理系统的基础,我们可以看到很多大型互联网公司,如Google、Facebook等都在积极的尝试定制自己的服务器和存储设备来应对其大规模扩张的需要。这也向我们证明了另一个问题:只有做好硬件基础,才能做好软件和服务。正如前文所分析,IBM的Power平台和大型机平台从效率和灵活性上都独树一帜,其策略就是要以独一无二的硬件基础,构筑起独一无二的软件环境,进而确立差异化优势,从根本上保持对竞争对手的领先。因此可以说,IBM是绝不可能放弃自身的这些强大的硬件平台的,原因前文也阐述的清楚。笔者相信,随着未来Power生态圈的日益丰富,用户将更容易接受Power平台(软件定义的数据中心本就没有应用差别,只比平台性价比),逐渐改变目前的数据中心格局。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者