ZDNet至顶网服务器频道 04月22日 新闻消息(文/于泽):转眼间,又到了北方漫天飞絮的时节。回望刚刚过去的第一季度,还真是有不少吸引眼球的东西:工业4.0的升温、互联网+的走红……这些无一不在阐释IT的重要性,但透过现象看本质也不难发现,所有这些不过都是些噱头。迈进数据中心看到的还是服务器、交换机和存储设备,用的还是操作系统、虚拟化软件、中间件等。
当然,笔者也并不是说这些大的概念不好。客观地讲,互联网+很好地描述了当前社会经济与IT之间的关系。只不过空谈无益,相信人们更多想看到的也还是各个行业如何切实地拥抱互联网+时代。那互联网+究竟该如何落地?最终无疑还是要体现在上文提到的服务器、存储、交换机、虚拟化软件……上。
浪潮SmartRack整机柜服务器
以服务器为例,过去的一两年呈现出几个比较明显的趋势。一个是以整机柜服务器为代表的面向Scale-out(横向扩展)市场的产品越来越丰富,比如浪潮于2月推出的5款面向不同领域的SmartRack整机柜服务器;一个则是以IBM System z13大型主机为代表的面向Scale-up(纵向扩展)的产品竞争正变得愈发激烈,比如前有惠普推出的16路的Superdome X高端服务器,后有华为即将推出的32路服务器;还有一个就是以戴尔XC730超融合系统为代表的超融合系统市场变得越来越热闹,比如VMware的EVO:RAIL、Citrix的WorkspacePod等。
IBM System z13大型主机
戴尔XC730超融合系统
这些都是新东西吗?不见得。以整机柜服务器为例,其实这种形态已存在多年。只不过大多用在了BAT等互联网巨头的数据中心内,因此并没有受到太多关注。
眼下随着云计算的兴起,使得原本更多停留在BAT等用户身上的需求扩展到了更广泛的市场。试想随着服务器需求量的提升,谁不想部署、配置更简单些呢?这也使得整机柜服务器正变成像塔式服务器、机架服务器之外的又一个服务器类别,产品越来越丰富也就不难理解了。
说完了整机柜服务器,再说说高端服务器市场。其实这块市场一直都挺热闹的,只不过相比之前的产品,现在的更加“高端”。过去多看到的是4路、8路这样的产品,而现在16路、32路层出不穷。是什么原因造成的?技术的进步是一方面,更重要的还是用户需求推动,应用整合、数据分析都需要更加高端的服务器。
而关于超融合系统的兴起,笔者只想说比前一波融合系统的来势汹汹更猛烈。遥想当年的融合系统IBM FlexSystem专家集成系统、Oracle Exadata数据库一体机等,再看看如今各种各样的超融合系统,叫不叫座恐怕只有各家自己知道了。反正从笔者侧面的打探来看,超融合系统表现并没有那么抢眼。当然原因是多方面的,价格、应用限制、软件绑定都是其中的因素。
所以,综合来看,笔者更愿意将前两个趋势认为是刚需,而超融合系统起码就现在这个阶段还属于锦上添花型,是像融合架构一样不温不火还是能开辟出新的一片天地有待时间检验。
除此之外,作为第一季度的回顾,还有一些产品不得不提。比如,惠普联手富士康推出的Cloudline开放服务器。显然,惠普已经不满足于通用市场,而要与广大ODM厂商抢份额了。话说也可能是惠普压力太大了吧,Google、Facebook、百度、腾讯、阿里巴巴都联合ODM一起开发,惠普如果不努把力,2015年服务器市场的全球第一的位置还真不知道该谁坐了。
聊完了服务器,还得说说与服务器密切相关的虚拟化软件。两大虚拟化巨头VMware和Citrix不约而同地在第一季度发布了最新的服务器虚拟化软件版本:vSphere 6.0和XenServer 6.5。实话说,这两个软件距离上一版本都有一段时间了,不过好在都来了。那问题来了,vSphere 6.0和XenServer 6.5究竟能给市场造成多大的影响呢?在笔者看来已经很有限了,因为OpenStack的影响正在扩大。
回顾一季度,有欣喜、也有遗憾。由于一季度并非产品高发期,有这么多爆点其实也足够我们回味了,同时我们也期待今年接下来会有更多值得玩味的产品。
在此做个预告,5月份,英特尔E7 v3处理器将正式面世,届时相信会有一批高端服务器集中亮相,欢迎关注ZDNet报道。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。