ZDNet至顶网服务器频道 06月06日 新闻消息:近日,IBM召开了新睿融合式刀片架构高峰论坛,再次展示了新一代刀片融合系统Flex Systems。在System x家族中,Flex Systems是一个独特的产品,它是PureSystems专家集成系统的核心硬件基础架构,也是IBM新一代的融合刀片系统。
目前全球市场中x86刀片服务器可能占到x86服务器的22%,但中国市场中这个比例只有10%。IBM系统与科技部Pure及刀片服务器大中华区总经理黄建新认为,国内刀片市场低于国外的原因一方面是历史原因,传统IDC和机房大多还是采用机架服务器,第二是国内市场对刀片服务器的认知度有待增强,很多用户认为刀片服务器这种架构存在着可靠性、散热等方面的问题。
黄建新强调,新的融合刀片系统和以往老的刀片已经完全不是一个概念。例如,传统刀片并不整合存储,难于实现跨不同操作系统平台的整合,也难于同时支持多种虚拟化平台。而Flex融合刀片系统实现了服务器、存储、网络的高度整合,能同时支持不同的操作系统和虚拟化技术,技术上更加灵活,具有高冗余和RAS特性,保证硬件故障不影响业务性能。
Flex Systems所配备的FSM管理模块能够明显降低服务器的部署和管理过程,比如能够看到整个基础设施环境的情况,包括新的事件和报错等详细信息,能对环境有全面的掌控;支持手机客户端,实现更加方便的远程管理;同时具有虚拟机镜像部署功能,在管理页面就能轻松实现部署。
IBM系统与科技部大中华区x86和PureSystems产品总监甘兆明介绍,采用Flex Systems融合架构,相比传统的IT环境,能源成本可节省30%,首日部署加快66%,数据中心空间需求减少80%,网络连接线缆减少92%。
甘兆明表示, 联想收购的是整个System x的路线图,包括开发团队、销售人员等。IBM投资10亿美元用于x86的研发,在交易完成后,这笔投资还会持续。不仅是融合刀片系统,X6高端服务器、海量服务器,都能够保证IBM一贯的创新。
正因Flex融合刀片系统相比传统刀片和IT架构有着明显的优势,故而不管是IBM还是联想,对于Flex Systems都十分看重,尤其对于缺乏刀片产品的联想而言。黄建新表示,Flex Systems融合刀片将成为联想的核心产品,故而IBM重新启动Flex的市场推广,旨在提升用户对融合刀片系统的认知和接受程度,改变对刀片的传统认知。在研发方面,IBM和联想接下来将有紧密的合作,包括共享知识产权。
就Flex Systems而言,根据交易协议,IBM将向联想出售基于x86的Flex系统,而保留基于Power的Flex系统。但根据双方的共享协议,未来基于x86和Power的Flex系统还将共用相同的机箱,这也是为客户现在的投入做资产保护。
在服务方面,黄建新介绍说,System x的产品和服务是完全可以分开的,在保修期之内产品的保修服务是由IBM GTS部门来提供,而超过保修期后,客户可以根据需要继续选择GTS提供服务,或者选择第三方的服务。
在渠道方面,System x原有的管理体系、渠道体系将基本维持不变,以给予合作伙伴承诺和信心,而渠道对双方的交易也持有积极态度。中国对国产化的要求越来越高,很多政府采购都要求国产的产品。交易后联想将具备国际化的品质和技术,同时依托本地企业的优势,完全能够满足客户的要求。好的品质+国产品牌,这是渠道喜欢看到的,能带来更多的商机。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。