作者:MARIA DEUTSCHER
更新时间:美国东部时间2023年10月10日14:07
AMD今天宣布收购初创公司Nod.ai,后者是一家开发加速人工智能模型的开源软件公司,收购的具体财务条款尚未披露。
Nod.ai正式名称为Nod公司,是开源人工智能工具SHARK的开发商。SHARK是一款被称为运行时系统,旨在提高神经网络的推理速度。据Nod.ai称,SHARK的性能明显优于其他针对相同任务的同类开源工具。
人工智能模型等程序不能单独部署,必须与各种辅助软件组件捆绑在一起。程序的许多辅助组件都被打包到一个被称为运行时系统的应用程序中。Nod.ai的SHARK就是一个运行时系统,专门针对神经网络的要求进行了优化。
在去年的一篇博文中,该公司表示SHARK让人工智能模型的运行速度比 PyTorch和Torchscript快三倍多。PyTorch是一种构建神经网络的流行框架。Torchscript是一种辅助技术,用于优化神经网络的推理速度。
Nod.ai表示,SHARK还能提供比XLA更好的性能。后者是一种技术,可用于提高使用TensorFlow(一种流行的 PyTorch 替代技术)创建的人工智能模型的性能。
Nod.ai不仅维护着SHARK,还为许多其他开源项目做出了贡献。这些项目同样旨在加快人工智能应用程序的代码速度。
开发人员使用一种被称为编译器的工具将源代码文件转化为可运行的程序。编译器将代码转换成所谓的中间表示,这是对程序运行方式的一种抽象描述。然后,编译器将这种抽象描述转化为计算机处理器可以运行的指令。
Torch-MLIR是Nod.ai参与的开源项目之一,是专门针对人工智能用例的中间表示法。该公司还参与了IREE项目,这是一种编译器,与Torch-MLIR共享许多技术组件。开发人员可以使用IREE将神经网络的源代码转化为能够在显卡和其他人工智能优化芯片上运行的程序。
AMD正积极努力提高其在人工智能芯片市场的份额。该公司的Epyc中央处理器内置了机器学习优化功能。AMD还销售专门的AI处理器,如最近推出的 MI300X,该产品意在与英伟达市场领先的显卡竞争。
开发人工智能软件的企业不仅需要快速的芯片,还需要在这些芯片上部署神经网络的简单方法。收购Nod.ai可以让AMD更有效地满足这一要求。Nod.ai的SHARK工具可以优化神经网络的性能,而这正是人工智能软件部署中最复杂的任务之一。
AMD人工智能事业部高级副总裁Vamsi Boppana表示:“Nod.ai优秀团队的加入提高了我们开发开源编译器技术的能力,并让整个AMD产品组合都能支持可移植的高性能AI解决方案。”“Nod.ai的技术目前已经广泛部署在云端、边缘和各种终端设备上。”
收购之后,AMD有可能会增强Nod.ai的SHARK工具。例如,这家芯片制造商可能会增加优化功能,以提高在部署在其处理器上的(SHARK驱动的)人工智能模型的性能。
AMD的竞争对手也参与了开源生态系统。例如,英特尔公司就是Linux和Chromium(谷歌Chrome浏览器所基于的开源项目)最大的企业代码贡献者之一。
在市场推广层面,收购Nod.ai可以帮助AMD提高旗下人工智能加速器与英伟达显卡的竞争力。除了芯片之外,英伟达还提供一个名为 Nvidia Enterprise AI的软件平台,可以帮助客户更轻松地优化神经网络的性能。该平台还包括预包装的人工智能模型、科学计算软件和一系列其他工具。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。