英特尔今天宣布推出了至强D-2100的帷幕,一个专用于传统数据中心之外进行计算的新型芯片系列。
所谓的边缘计算能够让企业在更靠近数据生成的地方处理数据,以提高响应时间。例如,工厂操作员可能希望分析来自现场生产设备的传感器日志,以避免延迟将其发送到远程数据中心、然后等待结果返回。
唯一的挑战是,远程操作带来了一些传输上的限制,而D-2100解决了这个问题。它是一个集成的片上系统,可将多达18个处理核心和许多其他边缘设备必备的组件集成到一个紧凑型主板中。它的功耗更低,从60到110瓦不等,这主要取决于型号。
在该系统内部,处理核心是基于英特尔最新的Skylake SP 14纳米架构。相比英特尔此前边缘计算芯片来说的另一个重大改进是该模块整合了一个新的“网状互连”,借用自最新一代的数据中心处理器设计。
这个机制是系统的一部分,负责在多个核心之间传输数据。英特尔的网状体系结构以不同的行和列组成不同的芯片组件,使得信息流动比此前的几代更加流畅,从而加快处理时间。
D-2100的性能也得益于它采用了英特尔的QuickAssist技术。这是一个专门的组件,可以以高达每秒100Gb的速度对数据进行加密和解密,释放主要核心以执行其他任务。
英特尔表示,总体而言D-2100在处理通用计算任务时比上一代高出了60%。该芯片还提供了近3倍的网络和存储性能。这对于那些在网络边缘存储数据和分析数据的公司来说是速度的重大提升。
D-2100有14个型号,从4个到18个核心。英特尔认为硬件合作伙伴将这些芯片集成到数据存储设备、紧凑型服务器(特别是用于取代软件定义网络中的专有交换机)、甚至是互连汽车。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“我真的很喜欢Xeon D针对5G运营商边缘计算的设计。运营商需要在边缘的高密度计算解决方案,为5G计算功能提供低延迟。”
好文章,需要你的鼓励
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。
Cerebras WSE 芯片拥有 40 亿晶体管,推理速度达到 NVIDIA 集群的约 2.5 倍,刷新了全球 AI 推理速度记录,为复杂 AI 代理应用提供高性能计算支持。
这项研究提出了"B-score",一种新指标用于检测大语言模型中的偏见。研究人员发现,当模型能看到自己之前对同一问题的回答时(多轮对话),它能够减少偏见并给出更平衡的答案。B-score计算单轮与多轮对话中答案概率的差异,无需外部标注即可识别有偏见的回答。实验证明,将B-score用于回答验证可显著提高准确率,在标准基准测试上平均提升2.9个百分点。这一发现不仅提供了实用工具,还表明大语言模型具有自我纠正能力。