ZD至顶网服务器频道 08月18日 新闻消息:英特尔公司目前正积极面向服务器及工作站设备开发一款强大的至强Phi处理器,旨在针对人工智能软件进行“优化”——目前其代号已经公布,名为Knights Mill。
芯片巨头的数据中心部门负责人Diane Bryant在本届于旧金山召开的英特尔开发者论坛上表示:
这款芯片主要面向深度学习类应用,且预计将在2017年年内推出。其将在芯片之上采用堆叠式内存,实现多功能、多核心并主要面向高性能浮点计算——这一切都是为了帮助其在高通量机器学习场景下快速执行操作。
更重要的是,Mill不配备加速器或者协处理器:其可运行x86代码并能够在不涉及主机CPU的情况下引导并运行操作系统及应用。这样的设计使其与英伟达GPU等竞争芯片区别开来——后者主机处理器协助其定向。
根据英特尔公司的说法,Knights Mill“针对向外扩展分析方案进行了伦,且包含多项深度学习训练强化机制。对于目前的机器学习应用,英特尔至强Phi处理器家族配备的大规模内存容量能够帮助百度等客户轻松高效地完成模型训练。”
Mill为至强Phi家族中的最新成员,且仍在快速发展当中。作为姊妹产品,Knights Hill为公布于2014年的第三代10纳米Phi处理器,其将用于美国能源部即将推出的180 PFLOPS Aurora等多台超级计算机。
与此同时,公布于2013年的第二代14纳米Phi Knights Landing已经于今年6月开始销售。其具备72个凌动Airmont核心,且能够访问高达16 GB堆叠式3D RAM以及高达384 GB的普通DDR4内存。其将被用于美国的Cori超级计算机。在Knights Landing之前,该家族还拥有Knights Corner与Knights Ferry两位成员。
至强Phi家族主要面向高性能服务器与系统,产品售价亦相当夸张。一块Knights Landing处理器的起步价格达2500美元,截至目前亦只有高校及政府机构能够利用其运行模拟及材料研究等负载。如今凭借着对AI初创企业Nervana的收购,英特尔公司开始将Phi家族转移向人工智能领域,而英伟达将成为其主要竞争对手。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。