ZD至顶网服务器频道 08月25日 编译:甲骨文公司即将公布其代码Sonoma的全新SPARC处理器方案,而相关发展蓝图将在今年于加利福尼亚州库比蒂诺召开的Hot Chips半导体大会上亮相。
下面放出的一系列重要演示资料全部为我们围绕这款超大规模向外扩展型芯片所整理得到,在得到更多消息后,我们将及时发布最新报道以及分析结论。
Sonoma号称是一款“面向企业级工作负载的低成本SPARC处理器”,这意味着客户应当在服务器当中加以运用。这款芯片基本上属于整合了SPARC M7设计方案、DDR4内存接口、PCIe以及InfiniBand接口的成果。其拥有八个SPARC第四代计算核心,直接接入系统内存,拥有一系列内置软件加速机制且包含由20纳米制程工艺构建的13个金属建层。
这套设计方案拥有8 MB共享式三级缓存,每对计算核心拥有512 KB共享二级缓存(核心0与核心1归为一个集群,核心2与核心3归为另一集群,以此类推),外加32 KB专用一级缓存。芯片内包含两个DDR4内存控制器,每个控制器拥有四条DDR4-2133/2400通道,每通道最高双DIMM,且每插槽最高1 TB DRAM。甲骨文方面指出,其峰值传输带宽为每秒77 GB。
甲骨文公司CPU与I/O验证高级首席工程师Basant Vinaik在会议上指出,“它包含一套拥有用户级加密指令集的加密单元。”
“其缓存已经经过针对性优化,旨在降低延迟水平并增加数据吞吐能力。Sonoma芯片凭借其集成化内存控制器实现了出色的延迟表现。我们利用推测性内存读取实现这一优化效果。软件则可通过阈值寄存器来对此进行调节。”
甲骨文公司网络与低延迟I/O高级架构师Rahoul Puri补充称,“Infiniband主机通道适配器符合OpenFabric以及Oracle Database规范要求。”
同时表示,“与内存之间的距离越近,就能将延迟表现控制在更低水平。我们能够优化工作负载同时降低成本及功耗……这将成为我们的主要优势。当更接近批量生产阶段时,我们还将发布更多与性能相关的具体数字。”
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。