OpenStack基金会已经开始着手研究,希望使其软件成为运行机器学习类工作负载的理想平台。
该基金会执行董事Jonathan Bryce在今天接受采访时解释称,“今年以来,机器学习的发展态势有点像去年的边缘计算。”这意味着用户开始考虑如何借此完成自家业务,或者希望掌握与之相关的知识资讯。今年,“我听到了大量来自OpenStack用户的声音,他们正在运行机器学习负载,并询问还有哪些人也在采取同样的举措。”
去年当该基金会听到成员们关于边缘计算的讨论声音时,他们即开始研究扩展平台的功能性,而其中一些功能目前已经研发完毕。
Bryce指出,OpenStack还没有正式迈入机器学习领域,但他补充称“我们已经与英伟达方面进行过会议交流。英伟达公司已经开始开发能够在我们的环境中拥有更佳运行表现的驱动程序。”
Bryce认为,此次会议以及其它相关措施意在“努力弄清我们应该关心的趋势性因素。”
他很清楚该基金会需要完成哪些任务,从而面向机器学习进行OpenStack调整。他总结道,“用户并不希望使用虚拟机,他们希望使用超级抽象化云与不同的I/O类型。”Bryce也意识到,接下来的任务当中将必须包含基金会自身向机器学习领域的迈进。“每一次与英伟达交流,英特尔都希望能够获得同样的沟通机会。”
好文章,需要你的鼓励
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。