英特尔已经决定终止Nervana神经网络处理器的开发工作,而是把精力放在12月20亿美元收购Habana Labs时获得的人工智能芯片架构上。
该消息是由Moor Insights&Strategy分析师Karl Freund本周五在《福布斯》上透露的。他说,英特尔告诉他,英特尔已经决定终止在Nervana NNP-T训练芯片和Nervana NNP-I推理芯片方面的工作,但表示仍将履行对后者的客户承诺。
Habana有两款自主开发的AI芯片,分别是Habana Gaudi和Habana Goya(如图)。前者是高度专业化的神经网络训练芯片,后者是用于推理的处理器(在主动部署中采用了神经网络)。
英特尔面临的问题在于,这两套芯片或多或少都是出于相同的目的,因此,英特尔没有必要让两条产品线同时存在。
确实,在英特尔收购Habana时,就有分析师对Nervana芯片的未来进行了推测。Freund本人就曾表示,“很难想象”的一种情况是Nervana处理器继续在英特尔产品组合中扮演重要的角色。
原因之一是Habana芯片的功能要强大得多。在最近的基准测试中,两颗Nervana NNP-I芯片在ResNet-50测试中每秒输入最高是10.567。而同一测试中,仅仅一个Habana Goya芯片能够达到每秒14451次输入。Goya不仅功能更强大,而且自2018年以来就一直在向客户出货,而NNP-I还未发布。
英特尔在2016年8月以约3.5亿美元的价格收购了Nervana Systems,希望以此打入深度学习训练芯片市场,而在此之前,Nvidia以更强大的GPU主导了该市场。当时英特尔的想法是,通过开发专用于深度学习的专用集成电路,加强与Nvidia竞争的优势。
放弃Nervana芯片的决定可能会对英特尔的AI平台部门产生一定的影响。目前该部门是由Nervana联合创始人之一Naveen Rao领导的,尚有很多前雇员。英特尔在12月的时候曾表示,打算保留Habana作为一个独立的业务部门,但很可能会决定将其与AI平台部门进行合并。
此前英特尔在2017年以153亿美元收购了Automated Driving Group和Mobileye N.V.之后,也将其合并成为一个独立的业务部门。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。