ZD至顶网服务器频道 08月25日 编译:甲骨文公司即将公布其代码Sonoma的全新SPARC处理器方案,而相关发展蓝图将在今年于加利福尼亚州库比蒂诺召开的Hot Chips半导体大会上亮相。
下面放出的一系列重要演示资料全部为我们围绕这款超大规模向外扩展型芯片所整理得到,在得到更多消息后,我们将及时发布最新报道以及分析结论。
Sonoma号称是一款“面向企业级工作负载的低成本SPARC处理器”,这意味着客户应当在服务器当中加以运用。这款芯片基本上属于整合了SPARC M7设计方案、DDR4内存接口、PCIe以及InfiniBand接口的成果。其拥有八个SPARC第四代计算核心,直接接入系统内存,拥有一系列内置软件加速机制且包含由20纳米制程工艺构建的13个金属建层。
这套设计方案拥有8 MB共享式三级缓存,每对计算核心拥有512 KB共享二级缓存(核心0与核心1归为一个集群,核心2与核心3归为另一集群,以此类推),外加32 KB专用一级缓存。芯片内包含两个DDR4内存控制器,每个控制器拥有四条DDR4-2133/2400通道,每通道最高双DIMM,且每插槽最高1 TB DRAM。甲骨文方面指出,其峰值传输带宽为每秒77 GB。
甲骨文公司CPU与I/O验证高级首席工程师Basant Vinaik在会议上指出,“它包含一套拥有用户级加密指令集的加密单元。”
“其缓存已经经过针对性优化,旨在降低延迟水平并增加数据吞吐能力。Sonoma芯片凭借其集成化内存控制器实现了出色的延迟表现。我们利用推测性内存读取实现这一优化效果。软件则可通过阈值寄存器来对此进行调节。”
甲骨文公司网络与低延迟I/O高级架构师Rahoul Puri补充称,“Infiniband主机通道适配器符合OpenFabric以及Oracle Database规范要求。”
同时表示,“与内存之间的距离越近,就能将延迟表现控制在更低水平。我们能够优化工作负载同时降低成本及功耗……这将成为我们的主要优势。当更接近批量生产阶段时,我们还将发布更多与性能相关的具体数字。”













好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。