英特尔今天宣布,将收购Andreessen Horowitz投资的人工智能初创公司SigOpt,交易金额未对外公开。
SigOpt公司位于美国旧金山,开发的软件平台主要被私有公司和OpenAI等研究组织使用,用于提高AI模型的性能,而这主要是通过一种超参数优化的方法做到的。
超参数是开发人员定义的一种设置,可影响AI处理数据的方式,其中包括模型中人工神经元的数量以及这些神经元彼此交互的方式。超参数优化是SigOpt的专长,这个过程中各种设置通过优化最大限度提升性能。
以前这个过程是很耗费时间的,因为对于大型AI来说可能涉及到为数众多的潜在设置组合,而查找最佳配置的传统方法通常是以半随机的方式搜索寻找超参数的。SigOpt表示,他们的平台采用贝叶斯优化统计方法更快地执行这个过程。
SigOpt的平台让开发人员可以指定他们希望改善的AI属性(例如准确性),然后创建一个“优化循环”以对其进行自动微调,在复杂的项目中,可以一次微调多个属性。SigOpt表示,该平台可以与很多不同种类的AI配合使用,包括机器学习模型和更复杂的深度学习模型。
英特尔有了SigOpt的性能优化功能,就可以帮忙那些在英特尔芯片上运行AI模型的企业客户实现更高的处理速度。英特尔表示,交易完成后SigOpt的技术将“跨英特尔AI硬件产品”进行集成。
去年根据财报显示,英特尔AI驱动的业务收入超过38亿美元,而且越来越受到重视。英特尔目前正准备在20年内推出Xe系列的第一条GPU产品线,其中包括针对企业优化的AI优化芯片。去年英特尔还斥资20亿美元收购了机器学习处理器初创公司Habana Labs。
英特尔的AI投资也使其创造除了CPU之外新收入来源的战略组成部分。去年年底的一次投资者活动中,英特尔首席执行官Bob Swan称,英特尔的目标是在“全芯片”市场中占据30%的市场份额,而提出这个愿景的时候,竞争对手AMD正在向英特尔核心CPU业务施加的更大压力。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。