英特尔今天宣布,将收购Andreessen Horowitz投资的人工智能初创公司SigOpt,交易金额未对外公开。
SigOpt公司位于美国旧金山,开发的软件平台主要被私有公司和OpenAI等研究组织使用,用于提高AI模型的性能,而这主要是通过一种超参数优化的方法做到的。
超参数是开发人员定义的一种设置,可影响AI处理数据的方式,其中包括模型中人工神经元的数量以及这些神经元彼此交互的方式。超参数优化是SigOpt的专长,这个过程中各种设置通过优化最大限度提升性能。
以前这个过程是很耗费时间的,因为对于大型AI来说可能涉及到为数众多的潜在设置组合,而查找最佳配置的传统方法通常是以半随机的方式搜索寻找超参数的。SigOpt表示,他们的平台采用贝叶斯优化统计方法更快地执行这个过程。
SigOpt的平台让开发人员可以指定他们希望改善的AI属性(例如准确性),然后创建一个“优化循环”以对其进行自动微调,在复杂的项目中,可以一次微调多个属性。SigOpt表示,该平台可以与很多不同种类的AI配合使用,包括机器学习模型和更复杂的深度学习模型。
英特尔有了SigOpt的性能优化功能,就可以帮忙那些在英特尔芯片上运行AI模型的企业客户实现更高的处理速度。英特尔表示,交易完成后SigOpt的技术将“跨英特尔AI硬件产品”进行集成。
去年根据财报显示,英特尔AI驱动的业务收入超过38亿美元,而且越来越受到重视。英特尔目前正准备在20年内推出Xe系列的第一条GPU产品线,其中包括针对企业优化的AI优化芯片。去年英特尔还斥资20亿美元收购了机器学习处理器初创公司Habana Labs。
英特尔的AI投资也使其创造除了CPU之外新收入来源的战略组成部分。去年年底的一次投资者活动中,英特尔首席执行官Bob Swan称,英特尔的目标是在“全芯片”市场中占据30%的市场份额,而提出这个愿景的时候,竞争对手AMD正在向英特尔核心CPU业务施加的更大压力。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。