OpenStack基金会已经开始着手研究,希望使其软件成为运行机器学习类工作负载的理想平台。
该基金会执行董事Jonathan Bryce在今天接受采访时解释称,“今年以来,机器学习的发展态势有点像去年的边缘计算。”这意味着用户开始考虑如何借此完成自家业务,或者希望掌握与之相关的知识资讯。今年,“我听到了大量来自OpenStack用户的声音,他们正在运行机器学习负载,并询问还有哪些人也在采取同样的举措。”
去年当该基金会听到成员们关于边缘计算的讨论声音时,他们即开始研究扩展平台的功能性,而其中一些功能目前已经研发完毕。
Bryce指出,OpenStack还没有正式迈入机器学习领域,但他补充称“我们已经与英伟达方面进行过会议交流。英伟达公司已经开始开发能够在我们的环境中拥有更佳运行表现的驱动程序。”
Bryce认为,此次会议以及其它相关措施意在“努力弄清我们应该关心的趋势性因素。”
他很清楚该基金会需要完成哪些任务,从而面向机器学习进行OpenStack调整。他总结道,“用户并不希望使用虚拟机,他们希望使用超级抽象化云与不同的I/O类型。”Bryce也意识到,接下来的任务当中将必须包含基金会自身向机器学习领域的迈进。“每一次与英伟达交流,英特尔都希望能够获得同样的沟通机会。”
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。