这可不是IaaS,而是专为测试和开发而生、用于支撑z/OS生态系统的新希望
IBM公司低调宣布,其首款云主机将于6月30日正式上线。
蓝色巨人在今年2月就已经公布了其计划运行的z/OS云托管虚拟机,负责为自家大型机提供支持。这些服务将首先在IBM Wazi即服务品牌下的封闭“实验”测试版中亮相。公告还承诺,“z/OS将采用按需访问形式,客户可根据需要进行开发和测试”,且服务预计“将在2022年2月”全面上市。
现在,IT巨头再次发布新公告,将“计划上市日期”延后至6月30日。
而且很遗憾,用户还无法登录IBM Cloud、直接启动自己的虚拟大不相同。
公告提到,只有签约成为IBM客户,大家才能在IBM Cloud控制台中看到该服务。要想实际使用,还需要“通过IBM销售服务流程获得许可后,方可访问该功能。”
在获准访问后,即可在该服务上创建并运行本地大型机的自定义镜像。
蓝色巨人希望将这项云大型机服务先期用于测试和开发。鉴于近年来基础设施即服务(IaaS)正愈发流行,所以IBM到现在才提供虚拟大型机其实已经有点滞后了。
之所以强调测试和开发使用,原因是IBM希望尽量简化z/OS应用程序开发的早期方向。这一点非常重要,毕竟大型机产品一直在IBM的总体利润中占据着可观比例。因此,如果能够尽可能降低大型机应用程序的构建门槛,特别是把大型机转化为像IaaS那样的按需付费业务,IBM接下来的运营道路肯定会走得更快、更稳。
目前,用户已经可以在IBM Cloud的日本(东京)、巴西(圣保罗)、加拿大(多伦多)和英国(伦敦)区域创建z/OS虚拟机。感兴趣的朋友还可点击此处了解关于IBM云大型机的更多资料和信息。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。