Linux 基金会日新成立了一个名为UXL基金会的行业组织,目标是简化能在多种类型加速器芯片上很好地运行的应用程序编写任务。

UXL基金会倡议是在周二的西班牙举行的一个行业活动上宣布的。UXL 基金会的成立得到了半导体市场几大巨头的支持。基金会成员包括英特尔公司(Intel Corp)、Arm Holdings plc、高通公司(Qualcomm Inc)、和总部位于英国的芯片公司Imagination Technologies 公司。
业界普遍认为该举措的目的是抗衡英伟达公司在加速计算领域日益增长的主导地位。由于OpenAI 的ChatGPT等生成式人工智能应用的迅速崛起,加速计算呈现爆炸性增长。前谷歌公司工程师Kelsey Hightower在X(前身为推特)上发帖称,“我们有了一个利用GPU等加速器的开源竞争对手抗衡英伟达的CUDA平台。”
谷歌的云计算业务和富士通公司也支持 UXL 基金会。谷歌为旗下的云平台设计了定制加速器芯片。富士通公司则有一个业务部门专门生产FeRAM等半导体产品,FeRAM是一种类似于DRAM的高速存储器。
UXL 基金会的目标令开发人员可以更容易地编写可在加速器芯片上运行的软件。加速芯片是一种经过优化的处理器,可高效执行一系列的计算任务。加速器采用了专门的设计,因此通常可以比中央处理器单元更快地运行经过优化的工作负载。
目前市场上的许多加速器都是为加速人工智能工作负载而设计的。也有一些产品是专门为其他任务设计的。例如,英特尔公司的 IPU 芯片就是为加快数据中心存储和网络设备管理计算速度而设计的。
专门为一种加速芯片构建的应用在其他芯片上可能不一定能顺利地运行起来。即使其他芯片针对相同类型的工作负载进行了优化,仍然如此。因此,开发人员为了将一个软件从一种加速器移植到另一种加速器上,往往需要对代码进行大量修改,需要花费大量的时间和精力。
新成立的 UXL 基金会的工作是简化那些可在多种加速器芯片上运行的应用程序的创建过程。据UXL 基金会称,UXL 基金会计划通过创建一个“开放标准加速器编程模型”来实现这一目标。
UXL 基金会的工作的核心是一项名为 oneAPI 的现有技术,oneAPI技术最初由英特尔公司开发。芯片制造商英特尔已将oneAPI技术贡献给 UXL 基金会。开发人员利用 oneAPI可以将软件从一种加速器芯片移植到另一种芯片,所需的工作量仅为过去工作量的一小部分。
英特尔的 oneAPI 基于一种名为 SYCL 的早期技术。开发人员利用SYCL可以使用 C++(一种流行的编程语言)编写可在多种类型芯片上运行的应用程序。由SYCL驱动的软件不仅可以在加速器(如AI优化处理器)上运行,还可以在CPU和FPGA上运行,FPGA是一种可重新配置的芯片,适用于各种用例。
英特尔贡献给 UXL 基金会的 openAPI 技术扩展了 SYCL 的功能集。openAPI增加了性能优化等功能,简化了软件调试任务。此外,英特尔还提供了一个 fsoftwa 工具,可以自动调整那些为 Nvidia 公司显卡编写的人工智能软件,使这些人工智能软件能够在兼容 openAPI 的芯片上运行。
UXL 基金会表示将专注于“推动创新并在整个行业实施 oneAPI 规范”。为此,基金会计划与芯片制造商和软件开发商合作。UXL基金会还打算与行业组织合作,例如支持openAPI的SYCL技术背后的非营利组织Khronos集团公司。
UXL 基金会指导委员会主席Rod Burns表示,“基金会成员希望打造最大的加速计算开放生态系统。我们的最终目标是为所有加速器建立一个多架构和多供应商的编程平台。”
UXL 基金会计划在今年晚些时候分享有关基金会的目标和发展路线图的更多信息。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。