2023年7月11日,北京 —— 今日,英特尔AI产品战略暨Gaudi2新品发布会在京举行。会上,英特尔正式于中国市场推出第二代Gaudi深度学习加速器——Habana® Gaudi®2。作为英特尔从云到端产品组合的重要组成,Gaudi2致力于以领先的性价比优势,加速AI训练及推理,为中国用户提供更高的深度学习性能和效率,从而成为大规模部署AI的更优解。
英特尔于中国市场推出Gaudi2深度学习加速器
英特尔执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera指出,“英特尔致力于通过为客户提供广泛的硬件选择,并支持开放的软件环境,加速人工智能技术的发展。凭借包括至强可扩展处理器和Gaudi2深度学习加速器在内的产品组合,英特尔正在降低人工智能的准入门槛,并强化客户在云端通过网络和智能边缘部署这一关键业务技术的能力,从而帮助构建中国人工智能的未来。”
为深度学习而生的全新Gaudi2训练加速器
该Gaudi2深度学习加速器暨Gaudi2夹层卡HL-225B,以第一代Gaudi高性能架构为基础,以多方位性能与能效比提升,加速高性能大语言模型运行。该加速器具备:
Habana® Gaudi®2深度学习加速器
Gaudi2加速器的出色性能在6月公布的MLCommons® MLPerf®基准测试中得到了充分认证,其在GPT-3模型、计算机视觉模型ResNet-50(使用8个加速器)、Unet3D(使用8个加速器),以及自然语言处理模型BERT(使用8个和64个加速器)上均取得了优异的训练结果。与市场上其他面向大规模生成式AI和大语言模型的产品相比,Gaudi2拥有卓越的性能与领先的性价比优势,能够帮助用户提升运营效率的同时,降低运营成本。
此外,Gaudi2可为大规模的多模态和语言模型提供出色的推理性能。在最近的Hugging Face评估中,其在大规模推理方面的表现,包括在运行Stable Diffusion(另一个用于从文本生成图像的最先进生成式AI模型之一)、70亿以及1760亿参数BLOOMz模型时,在行业内保持领先。
满足大语言和多模态模型的需求
Gaudi2深度学习加速器的架构旨在高效扩展,以满足大规模语言模型及生成式AI模型的需求。其每张芯片集成了21个专用于内部互联的100Gbps(RoCEv2 RDMA)以太网接口,从而实现低延迟服务器内扩展。
在Stable Diffusion训练上,Gaudi2展示了从1张卡至64张卡近线性99%的扩展性。此外,MLCommons刚刚公布的MLPerf训练3.0结果,亦验证了Gaudi2处理器在1750亿参数的GPT-3模型上,从256个加速器到384个加速器可实现令人印象深刻的接近线性的95%扩展效果。
具备成熟的软件支持,Gaudi2产品在中国市场正式上市
伴随日益增长的生成式AI及大语言模型需求,英特尔亦致力于打造领先、成熟的软件支持,充分释放Gaudi2深度学习加速器性能。
为支持客户轻松构建模型,或将当前基于GPU的模型业务和系统迁移到基于全新Gaudi2服务器,并帮助保护软件开发投入,SynapseAI®软件套件针对Gaudi平台深度学习业务进行了优化,旨在与广泛的软件生态系统一起,帮助简化模型的开发和迁移。SynapseAI集成了对TensorFlow和PyTorch框架的支持,并提供众多流行的计算机视觉和自然语言参考模型,能够满足深度学习开发者的多样化需求。
目前,英特尔正与浪潮信息合作,打造并发售基于Gaudi2深度学习加速器的浪潮信息AI服务器NF5698G7。该服务器集成了8颗Gaudi2加速卡HL-225B,还包含双路第四代英特尔至强可扩展处理器。
基于Gaudi2加速器的浪潮NF5698G7服务器
携手中国产业生态,共启人工智能新篇
多年来,借助强大的AI软硬件基础,英特尔一直致力于为AI领域的各类工作负载提供业界领先的卓越性能,并通过开放的生态、丰富多样的产品选择不断降低AI部署的门槛,并为中国的AI发展提供坚定支持。
本次发布会上,美团、百度与浪潮信息等生态伙伴分别分享了其基于英特尔软硬件产品组合的多样化智能业务进展。百度智能云服务器高级经理何永占表示,集成英特尔®AMX加速引擎的第四代英特尔®至强®可扩展处理器为ERNIE-Tiny模型带来了多倍的性能优化,百度将持续构建领先的AI全栈能力和全面的开放生态,并期待与英特尔在未来的AI领域展开更为广泛、深入的合作。浪潮信息高级产品经理王磊强调,NF5698G7是专为面向生成式AI市场创新开发的新一代AI服务器,支持8颗OAM高速互联的Gaudi2加速器,具备高性能、高扩展、高能效和开放生态等优点,将为AI客户提供强大的大模型训练和推理能力。未来,浪潮信息将继续携手英特尔,为行业打造创新、领先的产品方案。
此外,多家本土生态伙伴亦表明了与英特尔在当下及未来产品合作上的坚定立场与长远展望。新华三集团计算存储产品线副总裁刘宏程指出,新华三智慧计算秉持内生智能的技术理念,基于硬件使能、前瞻技术、绿色低碳等全方位能力,助力AI产业的高速发展。基于英特尔Gaudi2 AI加速器,新华三正与英特尔紧密合作,开发适合大模型训练和推理的高性能AI服务器,推动智能算力的普惠创新。与此同时,超聚变数字技术有限公司算力基础设施领域总裁唐启明表示,非常荣幸见证英特尔Gaudi2的发布。作为英特尔的长期战略合作伙伴,超聚变将一如既往地携手英特尔,共同推出基于Gaudi2的全新产品与解决方案,助力企业的AI场景成熟商用和规模落地。
未来,英特尔将持续引领产品技术发展,进一步加速大规模深度学习部署,助力中国本地AI市场发展。
声明:
产品性能或因使用方式、配置和其他因素而异。 了解更多信息,请访问 www.Intel.com/PerformanceIndex。
性能结果基于截至所示日期的测试,可能不反映所有公开可用的更新。没有任何产品或组件是绝对安全的。
您的成本和性能结果可能会有所不同。
英特尔技术可能需要通过启用硬件、软件或服务激活。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。