扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
服务器,通常位于网络中心,负责处理各终端设备的信息,可担任各种角色,特别在今天的Internet环境下,服务器的作用早已突破了局域网的概念。
PC服务器,既然是PC开头,那么就脱离不开PC的概念,这个概念产生1997~1998年间,诸多服务器厂商推出了基于当时的PC体系架构的廉价服务器产品,他们甚至使用和PC机一样的处理器,一样的芯片组,因此很多业内的人都将服务器亲切地称呼为PC服务器。
IA架构服务器,Intel作为服务器的鼻祖级别的厂商,肯定不乐意把自己的服务器产品挂上PC的标签,但问题是怎么和Unix服务器竞争,于是从体系架构上进行了命名,既然是使用的IA架构,那么这类服务器都被称为IA架构服务器。
工业标准服务器,最早是从Compaq的工程师传出,这个概念也基本符合那个时代的环境,只要符合一个相对宽松的指标体系,那么它就能轻松地融入到当时的工业标准环境中,特别是对机架类产品更是如此。
处理器进化论
不论上面对服务器的定义是什么,大家都知道这么不同的称呼其实面对的是相同、相近的产品就行了,毕竟用户在实际使用,他的名称又会不影响性能和稳定。
Intel作为服务器的开山鼻祖,还是得意于其自身的处理器业务,从8086到286,再到386,那时的Intel还完全没有精力其开创一个强大的计算体系。可是到了486时代,Intel的王者地位基本确立,它也有精力和能力拉开了与对手的差距,因此当时的一些重点厂商,比如AST、Compaq等都推出了基于Intel 486处理器的服务器产品,其实很简单,支持了SCSI硬盘,具有了网卡,可以运行网络操作系统等设置,成就了那一代服务器,虽然很简陋,但是毕竟开拓了一个全新的计算机时代。
Intel也及时地调整了自己的策略,在Pentium时代,成功地引入了SMP技术(对称多处理器系统,利用两个或两个以上的CPU进行数值计算,将计算任务分配到各个CPU上并行处理,使整个系统的性能得到极大的提升)。两路的计算能力极大地增强了服务器的性能,让服务器本身可以处理更多的数据。随后的Pentium Pro,更是在整个设计体系上让服务器具备了高性能计算的能力。
不过Pentium Pro在那个年代还是太贵了,一颗处理器价格超过一万元人民币,可以想像使用它的服务器是什么价格了。因此Intel切入PII时代后,PII Xeon诞生了,它让服务器可以轻松地跨越到4路SMP的级别,随后的PIII Xeon也是如此。单是对于两路市场,PII和PIII就足够担当重任了,因此,那时的服务器,也是Intel最辉煌的时代,一览众山小的情景就是那个年代的写照。
到了P4,Intel竟然简化了SMP的功能,P4只能作为一个独立作战的份子存在了,2路以上计算能力被一个叫做Xeon的处理器统治了,也就在那时,Intel遇到了它在服务器市场上的第一个对手AMD的Opteron,虽然是服务器领域的第一个对手,AMD已经和Intel在处理器市场上争斗了20年,只是在服务器领域,这几年才凸现出AMD的Opteron处理器。
市场上有了竞争,服务器的制造商自然会去权衡,虽然之前Intel的强势让不少厂商还不敢接AMD抛出的绣球,但是随着时间的推移,从IBM开始,HP、Dell等国际厂商,从曙光开始的国内厂商,都陆续推出了基于AMD Opteron处理器的服务器产品。
就在去年,我们还在琢磨Intel的超线程技术是否真的能当两个处理器来使用的时候(超线程技术,HT,是将一个物理处理器核心中模拟出两个虚拟的计算核心,以求减少处理器空闲计算能力的技术,是Intel P4系列处理器独有的),AMD抛出了重磅炸弹——双核Opteron,这可是物理双核的处理器,它迅速地占领了当时服务器计算能力的顶峰,也是历史上Intel第一次遇到了强力的挑战。
仓促之下,Intel在小范围发售了自己的双核处理器,几乎可以认为是两个Xeon核心肩并肩放在一起,不但性能提升有限,功耗更是迅速攀上了新的高峰,这让此系列处理器非常尴尬地退出了市场。不过老大就是老大,Intel重整旗鼓,先在桌面平台上试验了新的双核技术——酷睿,随后在服务器市场上推出了全新的双核服务器平台,基本在性能上追平了AMD的Opteron,这已经是一年以后的事情了,也就是这一年,除了少数几个Intel的嫡系部队死守Intel架构,连一向和Intel站在同一条线上的Dell也推出了双核Opteron处理器的服务器。
AMD双核Opteron
酷睿架构初尝成功,Intel又推出了足以在数字上领先的四核Xeon处理器,虽然从技术角度上看,它基本相当于两颗双核处理器,但是毕竟在名称上又抢到了AMD的前面,此间的AMD只是调整了处理器的接口,升级了小部分功能而已。
芯片组进化论
在服务器产品中,芯片组是最值得书写的部分,原因很简单:在服务器和PC机使用相同处理器的年代,芯片组是区别服务器和PC最直观的方法;而在服务器芯片组中,也是Intel唯一出现产品断档的情况。
在486时代,芯片组还没有形成系统的架构,那时有能力生产的厂商,做代工技术的企业多如牛毛,甚至3~5家芯片厂商共同合作一套芯片组都是常有的事情。
不过到了Pentium时代,这样的概念就完全变了,Intel一家独大,因为没有厂商能在服务器上和他抗衡,因此服务器的芯片组也相对稳定,VX/HX系列的芯片组几乎是服务器必选的,至于自己家独有的Pentium Pro处理器,别人更不会推出配套芯片组了。
到了PII时代,BX芯片组更是统治了从PC机到两路服务器的所有市场,不过此时的Intel正在遇到问题。因为在PIII服务器上,我们没有看到Intel芯片的影子,因为一个全新的ServerWorks芯片组公司出现了,它才是支持133MHz外频的服务器芯片组,至于更高端些的4路PIII Xeon处理器,更是SererWorks公司的天下。
这样的情况一直延续到PIII时代的末期,VIA的694X系列芯片组的出现,填补了低端服务器的部分空白,也基本宣告了PIII服务器时代的完结。
P4时代更加错综复杂,Intel不甘心只使用ServeWorks公司的芯片组,自己推出了i860系列芯片组,妄图通过RDRAM等技术壁垒保证其自身服务器的地位,却没有料到并不是那么成功,虽然不是P4 Xeon,改叫了Xeon,但是仍然继续使用ServeWorks公司的配套芯片组,而新的NetBurst微架构显然还没有完全准备好,这一代的服务器被PIII-S(图拉丁系列处理器,具有高达512KB的L2 Cache)的强力表现抢走了不少风头。
不过随着Intel逐渐完善P4架构体系,Intel的7520、7320芯片组的问世也让Intel在长达5年的时间里,第一次让自己家的处理器轻松地配合自己的芯片,Intel历史上最成功的服务器架构体系诞生了。
AMD在成功地推出了内置内存控制器的Opteron处理器后,又推出了配套的AMD8000系列芯片组,它也基本是第一代Opteron在服务器上唯一的“马鞍”了。
服务Intel服务器5年的RCC芯片组时光走到了2006年的8月,Intel的酷睿架构体系已经完善,在服务器上也酝酿了全新的平台,一个被称做Bensley的新服务器平台出现了,全新的E5000系列芯片组成为双核Xeon的绝对搭档。
这个时候的AMD也没有闲着,调整了Opteron的管脚,升级了原本DDR的内存控制器为DDR II,配套的芯片组也开始使用了NV的nGeforce Pro 2200,支持了新的特性。
I/O接口的变迁
很多读者一谈到I/O就是PCI或者PCI-E,没错,这些都是I/O接口部分,但是要全面解释的话,I/O接口包含的内容就很广了。
从传统意义上的扩展插槽,到磁盘的接口、网络的接口都被称为I/O,现在甚至连USB也被认为是服务器上的一个重要I/O通道。
从早期PC机开始EISA、ISA、VESA都是那些时代的扩展操类型,不过真正在服务器上应用到的还是PCI,随后发展演变成PCI-64、PCI-X、PCI-E等,无一脱离PCI的概念。网卡和各种SCSI、SCSI RAID,SATA等接口,都停留在这个PCI类的接口上,因此在服务器领域中,PCI的重要性不言而喻。
早期的PCI只有一个共享的总线,甚至形成了网卡、RAID卡和显示卡等多种PCI设备共同争用的现象,所有设备都挂在PCI总线上,形成了带宽共享的形式。PCI设备经过多年的发展,也已经逐渐形成了几种不同的规范:从最低的32位33MHz PCI的133MB的带宽到PCI-X 133MHz的1.07MB的带宽,再到PCI-X 8×的数GB带宽,PCI的带宽经历了飞速的发展。
左为FB内存,右为DDRⅡ内存
在100MB时代,所有的接口都能够满足100MB网卡的流量带宽需求,但是在1000MB网卡逐渐普及的今天,从性能带宽来看,他们之间还是有着本质的区别:普通100MB网卡在工作中会产生近200Mbps的流量(近乎是20MB带宽),千兆位网卡在实际工作中理论流量可以达到2000Mbps(折合约200MB带宽)。传统PCI 2.1标准的32位33兆PCI已经不能够满足带宽的基本需要,更不用提RAID卡等带宽占用大户的使用了,因此它在主流服务器中已经走上了逐渐没落的地带。
64位PCI -X从进入主流服务器后,就一直发挥出它高性能,良好兼容性的本色,先是为高性能SCSI RAID卡提供了良好的工作通道,在千兆的环境下也发挥出英雄本色,以近GB的带宽承担起千兆位通信的重任,而随后的高性能RAID则促进了PCI-X的分段设置。至此,服务器的I/O基本满足了用户多方面的需求,而所谓的PCI-E,是并行化I/O接口转串行化I/O接口的过程,它的意义不仅仅停留在带宽增长上。
内存技术风起云涌
服务器的内存很贵,几乎是相同规格PC机的一倍,这点相信大家都知道了,为什么会贵?从SDRAM时代就这样,DDR时代仍然贵,DDR II时代同样贵,到今天的Bensley平台,甚至出现了专为服务器设计的FB内存,更贵,为什么?
所有的内存都与生俱来地存在出现错误的潜在可能性。内存错误可以分为两大类——硬错误和软错误。硬错误是内存硬件的彻底损坏。软错误是在受到电磁干扰的情况下随机出现的,它并不意味着存储器的损坏,但是却有着更大的危险性。据统计,内存容量在4GB的服务器每年平均发生3次内存软错误。
服务器使用特殊的ECC内存,ECC(Error Correction Code)技术可以纠正1位错误,检测到2位错误。1996年Compaq的Advanced ECC技术可以纠正同单一内存芯片上的多位错误,也可以纠正内存条上单芯片的失效。IBM推动的Chipkill ECC技术在内存条中安置内存RAID芯片也实现了纠正单芯片内多位内存错误和单芯片失效的问题。
其实早些年已经对内存可能会发生的错误产生了内存镜像技术、内存条阵列技术、在线内存备份等多种技术,但是随着服务器平台的逐渐统一化,这样的技术只是在某些厂商的特定机器上采用,毕竟价格过于昂贵,超过了普通用户所能接受的范围。
从早期的SDRAM,发展到可怜的RDRAM(Rambus的RDRAM在性能方面的领先不能掩盖它严重的散热问题,再加上昂贵的价格,进入高端服务器领域困难重重),再到DDR和DDR II,最新的有FB DIMM内存。基本上实现了每更新一代,速度提升一倍的诉求。
存储空间飞速成长
第一代的服务器硬盘有多大?反正40MB的硬盘就足够一台服务器为几十台无盘站提供服务了,而为了给更多的用户同时提供服务,SCSI硬盘显然是最好的选择,SCSI也成为服务器身上与PC不同的重点特征。
从SCSI开始到今天的SCSI 320 、SAS都在速度和并发处理能力上远远超出了ATA硬盘,容量也从最初的40MB发展到今天的15000转、320GB;ATA硬盘更借助自身的优势,将容量扩展到750GB。即便是体积最小的1U机架式服务器,也足够放下两块3.5英寸硬盘,容量过TB轻松可得。