ZD至顶网服务器频道 08月25日 编译:甲骨文公司即将公布其代码Sonoma的全新SPARC处理器方案,而相关发展蓝图将在今年于加利福尼亚州库比蒂诺召开的Hot Chips半导体大会上亮相。
下面放出的一系列重要演示资料全部为我们围绕这款超大规模向外扩展型芯片所整理得到,在得到更多消息后,我们将及时发布最新报道以及分析结论。
Sonoma号称是一款“面向企业级工作负载的低成本SPARC处理器”,这意味着客户应当在服务器当中加以运用。这款芯片基本上属于整合了SPARC M7设计方案、DDR4内存接口、PCIe以及InfiniBand接口的成果。其拥有八个SPARC第四代计算核心,直接接入系统内存,拥有一系列内置软件加速机制且包含由20纳米制程工艺构建的13个金属建层。
这套设计方案拥有8 MB共享式三级缓存,每对计算核心拥有512 KB共享二级缓存(核心0与核心1归为一个集群,核心2与核心3归为另一集群,以此类推),外加32 KB专用一级缓存。芯片内包含两个DDR4内存控制器,每个控制器拥有四条DDR4-2133/2400通道,每通道最高双DIMM,且每插槽最高1 TB DRAM。甲骨文方面指出,其峰值传输带宽为每秒77 GB。
甲骨文公司CPU与I/O验证高级首席工程师Basant Vinaik在会议上指出,“它包含一套拥有用户级加密指令集的加密单元。”
“其缓存已经经过针对性优化,旨在降低延迟水平并增加数据吞吐能力。Sonoma芯片凭借其集成化内存控制器实现了出色的延迟表现。我们利用推测性内存读取实现这一优化效果。软件则可通过阈值寄存器来对此进行调节。”
甲骨文公司网络与低延迟I/O高级架构师Rahoul Puri补充称,“Infiniband主机通道适配器符合OpenFabric以及Oracle Database规范要求。”
同时表示,“与内存之间的距离越近,就能将延迟表现控制在更低水平。我们能够优化工作负载同时降低成本及功耗……这将成为我们的主要优势。当更接近批量生产阶段时,我们还将发布更多与性能相关的具体数字。”













好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。