最新资讯:英特尔今天宣布将与Hewlett Packard Enterprise(HPE)合作,为HPE ProLiant DL380 Gen10服务器提供更强的工作负载加速能力。此举旨在借助全新高性能英特尔FPGA可编程加速卡(英特尔FPGA PAC)D5005以满足计算密集型市场需求,如流分析、媒体转码、金融技术和网络安全。英特尔FPGA PAC D5005是英特尔PAC产品组合的第二款加速卡,将随HPE ProLiant DL3809 Gen10服务器一同发售。
“The HPE ProLiant Gen10服务器家族是当今市场上, 最安全、最易于管理、最敏捷的服务器平台。目前,我们将英特尔FPGA PAC D5005加速器加装至HPE ProLiant DL380 Gen10服务器,为越来越多的工作负载(包括AI推理、大数据和流分析、网络安全和图像转码)提供优化的配置。结合HPE Pointnext的各项服务,我们将支持客户更快地实现价值并提高投资回报率(ROI)。”——Bill Mannel,Hewlett Packard Enterprise副总裁兼HPC与AI事业部总经理
重要意义:流分析、人工智能(包括语音转文本)、媒体转码等应用必须依靠强大的计算能力来满足当今日益增长的需求。数据中心客户可使用面向特定工作负载的硬件加速器,最大限度地发挥基于FPGA的硬件加速能力。通过将这些任务转移到定制的硬件加速器上,可以卸载相应的工作负载,从而释放服务器的CPU周期,使其可以运行更高价值工作负载。卸载相应的工作负载有助于降低数据中运营商的总体拥有成本。
相比前代PAC,全新英特尔FPGA PAC D5005可提供更多逻辑、更大内存,以及更出色的网络功能。英特尔FPGA PAC D5005现已通过HPE ProLiant DL380 Gen10服务器的认证,除了已发售的采用英特尔Arria 10 GX FPGA的英特尔PAC之外,客户还可以选择这款性能更高的PAC。
功能:英特尔FPGA PAC D5005加速卡基于英特尔Stratix 10 SX FPGA,可使用英特尔加速堆栈(包括加速库和开发工具)为基于英特尔至强可扩展处理器的服务器提供高性能的内联和旁路工作负载加速。
详细信息:HPE是首家宣布预认证英特尔FPGA PAC D5005加速器卡,并将其加装至HPE服务器(特别是HPE ProLiant DL380 Gen10服务器)的服务器OEM厂商。其他服务器厂商也正在对英特尔FPGA PAC D5005加速器卡进行认证。专门面向英特尔FPGA PAC D5005加速器卡开发的首批工作负载包括:
英特尔正在不断扩充基于FPGA的服务器加速卡产品线,英特尔FPGA PAC D5005加速卡正是该产品线的最新成员。相比基于英特尔Arria 10 GX FPGA的英特尔可编程加速卡,英特尔FPGA PAC D5005加速卡可提供的资源明显增多,包括多三倍的可编程逻辑、高达32GB DDR4内存(增加4倍),以及更快速的以太网端口(2个100GE端口对比1个40GE端口)。基于英特尔Arria 10 GX FPGA的英特尔PAC物理占用空间和能耗更小,适合更广泛的服务器,而英特尔PAC D5005专注于提供更强的加速能力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。