ZD至顶网服务器频道 08月25日 编译:甲骨文公司即将公布其代码Sonoma的全新SPARC处理器方案,而相关发展蓝图将在今年于加利福尼亚州库比蒂诺召开的Hot Chips半导体大会上亮相。
下面放出的一系列重要演示资料全部为我们围绕这款超大规模向外扩展型芯片所整理得到,在得到更多消息后,我们将及时发布最新报道以及分析结论。
Sonoma号称是一款“面向企业级工作负载的低成本SPARC处理器”,这意味着客户应当在服务器当中加以运用。这款芯片基本上属于整合了SPARC M7设计方案、DDR4内存接口、PCIe以及InfiniBand接口的成果。其拥有八个SPARC第四代计算核心,直接接入系统内存,拥有一系列内置软件加速机制且包含由20纳米制程工艺构建的13个金属建层。
这套设计方案拥有8 MB共享式三级缓存,每对计算核心拥有512 KB共享二级缓存(核心0与核心1归为一个集群,核心2与核心3归为另一集群,以此类推),外加32 KB专用一级缓存。芯片内包含两个DDR4内存控制器,每个控制器拥有四条DDR4-2133/2400通道,每通道最高双DIMM,且每插槽最高1 TB DRAM。甲骨文方面指出,其峰值传输带宽为每秒77 GB。
甲骨文公司CPU与I/O验证高级首席工程师Basant Vinaik在会议上指出,“它包含一套拥有用户级加密指令集的加密单元。”
“其缓存已经经过针对性优化,旨在降低延迟水平并增加数据吞吐能力。Sonoma芯片凭借其集成化内存控制器实现了出色的延迟表现。我们利用推测性内存读取实现这一优化效果。软件则可通过阈值寄存器来对此进行调节。”
甲骨文公司网络与低延迟I/O高级架构师Rahoul Puri补充称,“Infiniband主机通道适配器符合OpenFabric以及Oracle Database规范要求。”
同时表示,“与内存之间的距离越近,就能将延迟表现控制在更低水平。我们能够优化工作负载同时降低成本及功耗……这将成为我们的主要优势。当更接近批量生产阶段时,我们还将发布更多与性能相关的具体数字。”
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。