作为阿里自研大模型,千亿级参数规模的通义千问2.0在10个权威测评中全面超越GPT-3.5和Llama2,加速追赶GPT-4。
而通义千问2.0的良好表现离不开底层算力基础设施的支持,在这方面英特尔与阿里展开了积极合作。
为了最大限度地提升诸如阿里云通义千问2的大模型效率,全面的软件优化非常重要,其中包括从高性能融合算子到平衡精度和速度的先进量化技术。此外,英特尔还采用KV Caching、PagedAttention机制和张量并行来提高推理效率。英特尔的硬件可利用软件框架和工具包进行加速,并获得出色的大模型推理性能,其中包括PyTorch和英特尔 PyTorch扩展包、OpenVINO工具包、DeepSpeed、Hugging Face库和vLLM。
测试结果:英特尔® Gaudi AI加速器
英特尔Gaudi AI加速器专为生成式AI以及大模型的高性能加速而设计。使用最新版本的英特尔Gaudi Optimum,可以轻松部署新型号的大模型。在英特尔Gaudi 2上对70亿参数和720亿参数的通义千问2模型的推理和微调吞吐量进行了基准测试,以下为详细性能指标和测试结果。

表1. 70亿参数的通义千问2在单颗英特尔Gaudi 2加速器上的推理

表2. 720亿参数的通义千问2在8颗英特尔Gaudi 2加速器上的推理

表3. 通义千问2 FP8在英特尔Gaudi 2加速器上的推理

表4. 通义千问2在英特尔Gaudi 2加速器上的微调
测试结果:英特尔®至强®处理器
英特尔®至强®处理器作为通用计算的基石,为全球范围内的用户提供强大的算力。英特尔至强处理器具有广泛可用性,适用于各个规模的数据中心,这使其成为那些希望能够快速部署AI解决方案,又无需配备专项基础设施企业的理想选择。英特尔至强处理器的每个核心均内置了英特尔®高级矩阵扩展(英特尔AMX),可处理多样化的AI工作负载并加速AI推理。下图展现了英特尔至强处理器所提供的延迟性能可满足多种用例。

图1. 在基于第五代英特尔®至强®可扩展处理器的阿里云ecs.ebmg8i.48xlarge实例上,通义千问2的下一个推理token延迟
AI PC
由最新英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡驱动的AI PC让AI的力量触及客户端和边缘,使开发者在本地也能部署大模型。AI PC配备了专门的AI硬件,如神经处理单元和内置的英特尔锐炫™显卡,或配备了英特尔® Xe Matrix Extensions加速的英特尔锐炫™ A系列显卡,以处理高需求的边缘AI任务。这种本地处理能力可实现个性化的AI体验,增强隐私性,并提供快速响应时间,这对于交互式应用程序至关重要。
以下展示了15亿参数的通义千问2,在基于英特尔®酷睿™ Ultra的AI PC上运行时所展现的强大性能。

Demo 1. 在内置英特尔锐炫™显卡的英特尔®酷睿™ Ultra 7 165H上,通义千问2的推理

表2. 在内置英特尔锐炫™显卡的英特尔®酷睿™ Ultra 7 165H AI PC上,通义千问2的下一个token延迟

表3. 在由英特尔锐炫™ A770 16GB限量版驱动的AI PC上,通义千问2的下一个token延迟
从上述测试结果表现看,双方的合作成果还是很显著的,这加速了大模型的落地。
英特尔与阿里云在数据中心、客户端以及边缘平台上的AI软件优化,有助于构建一个创新的生态环境,且截至目前,已取得了包括ModelScope、阿里云PAI、OpenVINO等在内的诸多创新成果。得益于此,阿里云AI模型可在多样化的计算环境中进行优化。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。