近日,MLCommons公布了针对AI模型训练的行业标准MLPerf训练v3.1基准测试结果。
作为唯一提交MLPerf测试结果的CPU,第四代英特尔至强可扩展处理器在测试中展现出强大的性能。
本次,英特尔提交了ResNet50、RetinaNet、BERT和DLRM dcnv2的测试结果。值得注意的是,在DLRM dcnv2这一个新提交的测试模型中,第四代英特尔至强可扩展处理器仅使用四个节点就在227分钟内完成了训练。
在分别于今年6月、9月和11月进行的三次测试中,英特尔提交了基于第四代英特尔至强可扩展处理器的多个推理基准测试,结果显示,包括视觉、语言处理、语音和音频翻译模型,以及更大的DLRM v2深度学习推荐模型及60亿参数大语言模型及计算机视觉与自然语言处理模型ChatGPT-J在内,第四代英特尔至强处理器对于通用AI工作负载拥有出色的性能。
持续进化的CPU
毋庸讳言,GPU在AI工作负载的优势十分明显,但是这并不代表CPU就此甘拜下风。
为了让CPU更好地运行AI应用,英特尔对于至强处理器进行了积极改进。
比如内置英特尔高级矩阵扩展(英特尔AMX)加速引擎,第四代英特尔至强可扩展处理器支持INT8和BF16两种数据类型。与前几代产品相比,本代产品可实现高达5.7至10倍的实时推理性能提升和高达3.5至10倍的训练性能提升。
在于百度智能云9月发布的新一代云服务器BCC实例中,第四代至强可扩展处理器以AMX加速器扩展AI算力,从而使百度智能云用户在任何实例上轻松获取原生的强大AI能力。
得益于英特尔AMX指令集针对矩阵运算的强大加速能力,腾讯BERT模型BF16吞吐量获得大幅提升,从而有效地优化了其AI用户的终端体验。
通过AMX INT8及BF16的不同精度数据处理、AVX-512的深入调优,以及英特尔软件的加持,阿里云地址标准化业务和淘宝搜索的定制化推荐业务实现了大幅性能提升。
与此同时,第四代英特尔至强可扩展处理器亦助力亚信、用友、金蝶和东软等独立软件服务商实现在OCR等领域的多项业务升级,助力其成功应对来自不同应用场景的多样化AI工作负载需求。
截止目前,第四代至强可扩展处理器已出货一百万片。而代号为Emerald Rapids的第五代英特尔至强可扩展处理器也将于今年第四季度发布。
作为英特尔至强的重要演进,下一代平台引入了全新的能效核(E-core)架构,与其已有的性能核(P-core)架构并存。分别以代号Sierra Forest和Granite Rapids命名的这些新产品将为客户提供便捷性和灵活性,以及兼容的硬件架构和共享的软件堆栈,以满足诸如人工智能等关键工作负载的多元化需求。
代号为Sierra Forest的能效核英特尔至强可扩展处理器,计划将于2024年上半年交付,而代号为Granite Rapids的性能核英特尔至强可扩展处理器也将紧随其后。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。