2019年8月6日,北京——英特尔今天宣布,下一代的英特尔至强可扩展处理器系列(代号Cooper Lake)将提供每插槽最多56颗处理器核心,并在标准的插槽式CPU内提供内置的人工智能训练加速。作为主流英特尔至强可扩展平台的一部分,该处理器将于2020年上半年正式上市。这些高核心数的Cooper Lake处理器将充分利用英特尔至强铂金9200系列的强大功能,提供突破性的平台性能。目前,英特尔至强铂金9200系列正在全球要求极致计算力的高性能计算客户中获得采用和认可,包括北德超级计算联盟(HLRN)、Advania、第四范式等。
英特尔公司数据中心营销事业部副总裁兼总经理Lisa Spelman表示:“作为第二代英特尔至强可扩展处理器系列的一员,英特尔至强铂金9200系列在客户群体中引起强烈反响,他们正在将该技术部署于高性能计算、高级分析、人工智能和高密度基础设施等领域。通过在主流英特尔至强可扩展系列中推出扩展的56核处理器产品,我们能够服务更多渴求更高处理器性能和内存带宽的客户。”
与标准版英特尔至强铂金8200处理器相比,下一代的英特尔至强可扩展处理器(代号Cooper Lake)将包含两倍的处理器核心数量(最高达56颗核心)、更高的内存带宽以及更高的人工智能推理与训练性能。该款处理器可比目前的英特尔至强铂金9200处理器提供更低的功耗。通过在英特尔深度学习加速技术(英特尔DL Boost)中增加对bfloat16的支持,Cooper Lake将是第一款提供内置高性能人工智能训练加速功能的x86处理器。此外,Cooper Lake还将与即将推出的10纳米Ice Lake处理器实现平台兼容。
20余年以来,英特尔至强处理器提供领先的平台和性能优势,让数据中心和企业客户能够灵活地为其计算需求选择合适的解决方案。下一代的英特尔至强可扩展处理器(Cooper Lake)将基于英特尔一直不间断的服务器处理器性能记录,为满足客户真实的工作负载和业务应用需求,提供领先的性能水平。
即日起即可从授权英特尔经销商和指定OEM厂商处购买搭载英特尔至强铂金9200处理器的预配置系统,包括Atos、HPE、联想、Penguin Computing、Megware。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。