恩智浦半导体(NXP Semiconductors)拉开了可能会成为计算机芯片制造行业新趋势的大幕:该公司宣布,将把绝大多数电子设计自动化工作负载转移到AWS公有云平台上。

恩智浦表示,已经将AWS作为其首选云提供商,通过把EDA工作负载转移到AWS云上,将获得更高的效率和计算力,有助于为汽车、工业物联网、移动和通信基础设施领域设计新一代更快更强大的计算机芯片。
据Amazon称,自迁移到AWS云上以来,恩智浦已经看到了协作改善和EDA吞吐量提高等诸多好处,此外还降低了成本,可以把更多时间专注于实际设计,而不是管理计算资源上。
更有趣的是,把EDA之类的计算密集型工作负载迁移到云端将带来一些预期的长期收益。恩智浦表示,相信这次迁移能够实现一些重要流程改进,从而彻底改变设计和测试CPU的方式。
恩智浦解释说,每个新的芯片设计在制造之前都会经过广泛的测试和验证,以确保功能上的安全性和实现预期的性能水平,具体工作包括前端设计工作流程,如性能模拟和验证,以及围绕时序和功耗分析、设计规则检查和其他应用准备新芯片生产所需的后端工作负载。
以前恩智浦和其他芯片制造商一样,都是在内部数据中心以固定的计算能力完成这项工作的,但由于新一代芯片变得越来越复杂,有时候这些流程可能需要数月甚至数年时间才能完成,这样就需要能够准确预测和采用新型计算基础设施。
因此,恩智浦迁移到云端是有意义的,他们可以在AWS公有云上利用先进基础设施,同时具备推进多个芯片设计和测试项目所需的规模和敏捷性,这样他们就可以并行运行数十个性能模拟,从而缩短整体设计时间。
迁移到云端还让恩智浦可以利用关键的AWS分析和机器学习服务来辅助研发工作。例如,恩智浦正在使用Amazon QuickSight,一种基于机器学习的商业智能服务,来提高工作流程效率,通过将一个测试步骤的结果快速转换为另一步骤的修改,可减少芯片设计迭代所需的时间。
不仅如此,恩智浦还利用Amazon SageMaker,一项用于在云端和边缘构建、训练和部署机器学习模型的服务,来优化构建计算、存储和第三方软件应用许可的方式。
AWS公有云上提供的各种专业实例也让恩智浦从中受益,使其能够为EDA工作流程实现性价比的完美平衡。
Constellation Research分析师Holger Mueller认为,AWS等云平台的主要优势在于它们为企业提供了“商业弹性”。
“在发展犹如过山车般的半导体行业中,评估资本支出需求是很有意义的,所以恩智浦将EDA工作负载转移到云端是一个很明智的想法。EDA处于半导体制造商价值链的早期阶段,并不是所有设计工作最终都会转化为真正的芯片。”
Pund IT分析师Charles King表示,将EDA工作负载转移到AWS可以为那些与英特尔等大型芯片厂商相比较为小型的芯片厂商提供引人注目的价值,此外“将计算和存储转移至存储厂商还有助于降低资本支出,可能会导致企业对IT部门进行裁员。如果与恩智浦同类的其他厂商也在考虑采取类似举措,我一点也不觉得奇怪,不过我猜测主流半导体厂商并不会效仿。”
恩智浦半导体公司首席信息官Olli Hyyppa表示,基于云的EDA对于加速半导体创新和更快地将新设计推向市场是很有必要的。
“AWS为我们提供了最佳的规模、全球影响力、计算和存储上的更多选择,不断提高我们需要的性价比,让我们的设计工程师把宝贵的时间专注于创新上,以引领半导体行业的转型。”
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。