数据离计算更近了——Supermicro的X10DRU-i+双槽服务器日前上架,其应用程序可用内存达1TB或2TB,可用于的分析、数据库以及缓存应用程序,还配备了Diablo的Memory1 flash DIMM模块,唯DRAM服务器内存增加了3倍。
以上的闪存可作为准DRAM使用,DMX软件预先抓取数据后再将其设为DRAM缓存风格。这些闪存实际上扩大了记忆容量,因而令服务器能应付大数据应用程序。
Diablo表示,这些服务器可以在一个机架内提供高达40TB的系统内存,无需更改硬件和应用程序。
Memory1是一款DDR4 DIMM模块,配有128GB闪存和Diablo内存扩展软件(DMX)。DRAMDIMM与Memory1模块一起装在系统里,典型的闪存-DRAM比为8:1。
X10DRU-i+双槽服务器名为巨型孪生服务器,配有24个DIMM插口和双XeonE5-2600 v4处理器。可以说,闪存处于板载DRAM的后备存储库里。
SupermicroX10DRU-i+双槽服务器
DMX软件用于提供内存虚拟化、动态数据分层和数据预测、闪存持久性的增强以及性能微调。记者了解到,至2017年,Memory1容量可能会增至256GB,即是说服务器内存将达4TB。
Supermicro公司还在开发旗下的热交换NVMe闪存驱动器服务器产品组合。Stifel常务董事Aaron Rakers撰文表示,Supermicro认为热交换、双端口NVMe闪存可比SASSSD产品快6倍,截至9月底为止,Supermicro已经推出了超过70款NVMe产品。他表示,Supermicro正在研发新一代M.2 NVMe产品,这些产品可以支持高达12TB的闪存容量。
上述X10DRU-i+服务器目前配有10个SAS前端开槽,大有可能将过渡到10个NVMe前端开槽。而且,10个2.5英寸驱动槽空间也可能被更动,以支持20个新型NVMe闪存驱动。
Racker指:
Brocade前一阵曾表示过,Brocade认为NVMe-over-Fabrics在未来几年里对于存储行业而言可能会和前几年的闪存存储一样,是一项颠覆性的技术。再者,Mellanox最近表示,NVMe-over-Fabrics技术令客户可以构建高性能、基于块的存储,这是15年以来出现的第一个新的主体基于块存储的协议,Mellanox认为NVMe-over-Fabrics有可能取代光纤通道。
简言之,内存大幅增加,用的是较慢的、但比DRAM类内存更便宜的的内存,SAS 2.5英寸SSD将逐渐让位于NVMe型闪存驱动,这些驱动用的是M.2卡外形规格,光纤通道/iSCSI连SAN将让位给更快的、基于RDMA的NVMe Fabrics连共享存储技术。从物理距离和访问延迟的意义上来说,数据将更接近计算。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。