ZDNet至顶网服务器频道 10月11日 新闻消息:在第五届开源计算峰会上(Open Compute Summit V) – AMD 公司为其影响深远的服务器技术再树立了一块重要的里程碑。该公司展示了专为旗下首款64位ARM服务器CPU设计的全面开发平台,该CPU采用28纳米加工技术,在服务器厂商中尚属首次。AMD还公布了即将上市的ARM处理器样品,名为AMD 皓龙 A1100系列;以及一部包括评估板与综合软件套装在内的开发平台。此外,AMD还宣布将为开源计算项目(Open Compute Project)贡献新型微服务器设计,该设计将采用AMD皓龙A系列处理器,也是名为”Group Hug”的母板通用插槽规范的组成部分。
代号为“西雅图”(Seattle)的AMD皓龙A系列处理器与开发平台一起展示,利用该平台,用户将得以更迅速而轻松地使用行业领先的ARM服务器CPU进行软件设计。AMD正在与行业领袖合作,建设强大的64位软件生态系统,服务于从编译器与模拟器到系统管理程序、操作系统及应用软件的ARM设计,以解决网络层级(Web-tier)和存储数据中心环境下的重要工作流问题。AMD皓龙A系列开发平台将得到一系列工具与软件的支持,包括基于Fedora项目的标准UEFI(统一可扩展固定接口)启动与Linux环境支持(Fedora是由Red Hat发起、由社区推动的Linux发布项目)。
AMD公司副总裁、服务器业务部门总经理Suresh Gopalakrishnan 表示:“数据中心的要求不断变化。‘万金油’式的策略通常会使效率受到限制,导致解决方案的成本居高不下。基于ARM的新型AMD皓龙A系列处理器为现有服务器处理器厂商带来ARM生态系统的丰富经验与先进技术,为已经取得成功的AMD皓龙x86服务器处理器提供补充。”
AMD皓龙A1100系列处理器支持:
4核或8核ARM Cortex-A57处理器
高达4 MB的共享L2与8 MB共享L3缓存
可配置双DDR3或DDR4存储通道,配备ECC 纠错码,速度高达1866 MT/秒
多达4部小型双列直插式内存模块(SODIMM)、无缓冲双列内存模块(UDIMM)
或注册双列内存模块(RDIMM)
8道PCI-Express Gen 3 I/O
8部Serial ATA 3端口
2部10吉比特以太网端口
ARM TrustZone 技术,用于提高安全性
Crypto与数据压缩协作处理器
AMD皓龙A系列开发工具的封装采用Micro-ATX封装,包括:
一部AMD皓龙A1100系列处理器
4部注册DIMM插槽,可容纳高达128GB的DDR3 DRAM
PCI Express 连接器,可配置为8部单端口 或4部双端口
8部Serial-ATA连接器
可兼容标准电源
可以独立使用,也可安装于标准机架式机箱
标准UEFI启动环境
基于Fedora的Linux环境,为开发者提供丰富工具与应用
o标准Linux GNU工具链,包括交叉开发版本
o平台设备驱动器
oApache网络服务器,MySQL数据库引擎,以及PHP脚本语言,用于开发强大的网络侍服应用
oJava 7与Java 8版本,为开发者提供在64位ARM环境下工作的选项
LEG总监Andrea Gallo 介绍说:“自2012年以来,AMD始终在与 Linaro企业应用小组(LEG)的成员密切合作,加快ARM服务器生态系统的发展。Linaro在启动架构领域的工作包括UEFI与ACPI,以及重要的核心服务器软件,例如与Red Hat合作研发的经过优化的LAMP栈以及业内一流的企业级OpenJDK 8 Java实施,这些技术将帮助AMD实现与众不同的创新硬件解决方案,提供业内一流的性能和低功耗产品,用于新一代数据中心服务器平台。”
AMD继续推动开放源数据中心的发展,将愿景变为现实,提供多种处理器架构选项。AMD还宣布,即将为开源计算项目贡献新型AMD Open CS 1.0 通用插槽设计,该设计以AMD皓龙A系列处理器为基础,兼容最新通用插槽规范。
开源计算项目主席兼总监Frank Frankovsky表示:“预定义版的‘万金油’式服务器平台正在让位于定制型解决方案,后者能够以最低功耗提供出色性能。AMD对开源计算项目的贡献扩展了OCP的设计范围,帮助数据中心提高利用率和效率。”
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。