英特尔今天宣布推出了至强D-2100的帷幕,一个专用于传统数据中心之外进行计算的新型芯片系列。
所谓的边缘计算能够让企业在更靠近数据生成的地方处理数据,以提高响应时间。例如,工厂操作员可能希望分析来自现场生产设备的传感器日志,以避免延迟将其发送到远程数据中心、然后等待结果返回。
唯一的挑战是,远程操作带来了一些传输上的限制,而D-2100解决了这个问题。它是一个集成的片上系统,可将多达18个处理核心和许多其他边缘设备必备的组件集成到一个紧凑型主板中。它的功耗更低,从60到110瓦不等,这主要取决于型号。
在该系统内部,处理核心是基于英特尔最新的Skylake SP 14纳米架构。相比英特尔此前边缘计算芯片来说的另一个重大改进是该模块整合了一个新的“网状互连”,借用自最新一代的数据中心处理器设计。
这个机制是系统的一部分,负责在多个核心之间传输数据。英特尔的网状体系结构以不同的行和列组成不同的芯片组件,使得信息流动比此前的几代更加流畅,从而加快处理时间。
D-2100的性能也得益于它采用了英特尔的QuickAssist技术。这是一个专门的组件,可以以高达每秒100Gb的速度对数据进行加密和解密,释放主要核心以执行其他任务。
英特尔表示,总体而言D-2100在处理通用计算任务时比上一代高出了60%。该芯片还提供了近3倍的网络和存储性能。这对于那些在网络边缘存储数据和分析数据的公司来说是速度的重大提升。
D-2100有14个型号,从4个到18个核心。英特尔认为硬件合作伙伴将这些芯片集成到数据存储设备、紧凑型服务器(特别是用于取代软件定义网络中的专有交换机)、甚至是互连汽车。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“我真的很喜欢Xeon D针对5G运营商边缘计算的设计。运营商需要在边缘的高密度计算解决方案,为5G计算功能提供低延迟。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。