ZD至顶网服务器频道 03月12日 新闻消息: 首先,微软表示将与Cavium公司合作,在Cavium的ARM服务器处理器上运行微软Azure云工作负载。其次,微软将与高通公司合作,开发一款ARM版的Windows Server平台。
这次公布表明微软正在向ARM处理器迈出重要一步,目前ARM处理器还无法在由英特尔x86服务器主导的数据中心领域内取得任何进展。
Cavium表示,与微软的合作涉及到“评估和实现”Azure云工作负载在基于ARM的ThunderX2数据中心处理器上的运行。关于这次合作,本周举行的Open Summit峰会也也展示了在开源版Windows Server运行Web服务,而以前这是内部在ThunderX2上运行云工作负载的。
Cavium的芯片是第二代64位ARMv8偏上系统设计,针对云、数据中心和高性能计算工作负载。第一代ARM芯片基本上都无法在数据中心取得任何进展,但是很多人认为,第二代设计有潜力做得更好,特别是现在得到了很多像微软这些知名公司的背书。
Cavium的高管认为,少量的第一代ARM处理器数据中心部署有助于开始将那些对该设计感兴趣的合作伙伴集合起来构建一个生态系统。现在,第二代ARM芯片是时候取得更大的进展了。
Cavium数据中心处理器部门总经理Gopal Hedge在声明中表示:“我们看到第二代产品让ARM服务器部署覆盖主流卷应用出现了转折点。”
Cavium表示,与微软的合作源于开发了一个支持64位架构的内部版Windows Server。两家公司还合作开发了一个基于微软Project Olympus的服务器平台,Project Olympus是微软的下一代超大规模云硬件设计,被视为OCP社区的开源硬件开发新模型。该平台在一个双路配置中集成了2个ThunderX2处理器。芯片自身集成了多个定制的ARMv8-A核心,外加向微软Azure的IO接入。
而且微软在Open Compute Project Summit峰会上表示,微软正在与智能手机芯片制造商高通合作,开发基于ARM的Windows Server。此外,高通表示,第二代ARM处理器Centriq 2400将与Project Olympus数据中心设计集成。
Project Olympus“采用了开源协同的模式,虽然已经被软件接受,但是与开发硬件的物理需求是不一致的,”微软Azure硬件基础设施总经理Kushagra Vaid在一篇关于该项目的博客文章中这样写道。“我们正在通过采取一种截然不同的方法,贡献我们的下一代云硬件设计,现在大约完成了50%。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。