ZDNet至顶网服务器频道 04月21日 新闻消息:AMD4月16日宣布其在企业软件生态系统开发方面树立又一座重要里程碑,首次公开演示其第二代AMD皓龙™ X系列APU;该APU代号为“柏林”(Berlin),运行的是基于Fedora Project的Linux环境。Fedora Project是红帽赞助、并由社区推动发展的Linux发行版,为全世界的开发人员和IT管理员提供了一种熟悉的企业级操作环境。这一点对于希望过渡到x86 APU服务器、但又不愿意向其IT环境引入新工具和新软件平台的企业而言很重要。此外,本次演示也代表着数据中心内的x86 APU加速性能也向前迈出了显著一步。
AMD的 “柏林” APU“首演”将向大家展示世界上第一个采用服务器APU的异构系统架构(HSA)——该架构将于今年晚些时候正式推出。本次演示包括对 “Project Sumatra” 中所采用的先进成果的介绍;这些先进成果使得Java™ 应用程序能够在AMD服务器APU内利用图形处理单元(GPU)。AMD APU平台上Linux和Java的组合为基于服务器的多媒体工作负载和GPU通用计算提供了理想平台,这将有助于把数据中心内的工作负载效率推升到新水平。此外,AMD还将演示“柏林” APU上基于 OpenCL™和OpenGL的软件。
AMD公司全球副总裁兼服务器业务部总经理Suresh Gopalakrishnan表示,“由于服务器能够针对新的、不断变化的工作负载进行适应调整,所以软件生态系统能够支持这些新工作负载的需求就变得至关重要。我们正在积极地与数据中心软件社区的一系列合作伙伴开展协作,他们将为市场带来相关软件体系架构,以无缝启用基于x86 APU的服务器”。
AMD是HSA 基金会的创始成员之一;该基金会是一个致力于建立稳健的生态系统以支持APU技术的组织。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。