IBM正在寻求让自己的大型机更适合于现代数据中心。
IBM近日公布了两款小型化的大型机型号,并表示这两款型号在公有云或私有云环境中部署要比上一代传统大型系统更容易。
第一个新系统是以z14 Model ZR1(如图)命名的,基于一种单框架设计,IBM说这种设计可以装入以前用于容纳常规服务器相同的标准19英寸数据中心机架。
ZR1在IBM早期Z13大型机基础上进行了多项重大改进,吞吐量提高10%,配置高达8TB的内存,是上一代的2倍。计算则由3个10核心处理器执行,据称可以达到5.2GHz的主频。
IBM表示,这些芯片提供足够的计算能力来运行多达330,000个容器。依赖大型机的大企业正在越来越多地使用软件容器,这让开发人员将应用组件跨不同类型基础架构捆绑到轻量级的软件包中。
企业也可以利用ZR1每天处理高达8.5亿次加密交易。大型机在金融领域的应用尤其广泛,IBM表示全球50强银行中有44家银行依赖IBM的Z系列系统。
IBM表示,ZR1支持标准冷却和动力设备,这一特点旨在让ZR1相比Z14更易于部署,后者需要复杂的三相电源供电。此外,ZR1机箱拥有16个机架的可用空间,可容纳网络设备和辅助设备,从而释放数据中心的占地空间。
IBM推出的另一款大型机新型号是基于Linux的Rockhopper II,该系统专为运行Linux开源操作系统而设计,可以像ZR1一样安装在19英寸机架中,并提供类似的规格。该型号是IBM在2015年与Ubuntu合作推出的大型机的最新版本。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。