IBM公司在本月早些时候于纽约召开的AI纽约峰会上指出,其POWER 9方案在支持AI以实现“认知”工作能力方面优于通用或专用型X86商业现成(简称COTS)工具。
蓝色巨人最近公布了一项“演示”,据称其能够利用自有专有服务器配合低延迟/高带宽技术接入FlashSystem阵列——例如PCIe Gen 4、EDR与QDR InfiniBand以及NVMe over Fabrics,从而在性能表现上将COTS服务器及存储方案远远甩在身后。
当然,E8、Excelero、Pavilion以及Farmation Data Systems等初创企业都已经在推出NVMe over Fabrics访问型存储阵列,而Pure Storage也有意作出尝试——这一切都能够支持立足X86服务器的访问能力。
另外,IBM公司在展示中还使用了NVMe over Fabrics InfiniBand(简称NVMe-oF)。IBM公司并没有正式公布在AC922服务器或者FlashSystem 900阵列上支持NVMe-oF协议,但从目前的技术预览来看确有这种可能。
此次展示于今年12月5日到6日召开的AI纽约峰会上正式亮相。荐AC922采用PCIe第四代总线,速度是目前大多数服务器所使用的PCIe第三代总线的两倍。
IBM公司还向与会者们展示了基于POWER 9的AC922与五台FlashSystem 900阵列利用NVMe-oF实现对接的预览方案,并表示其能够有效降低数据访问延迟并提升传输带宽。
蓝色巨人Flashsystem产品组合与赋能战略经理Woody Hutsell在博文中指出,这台AC922服务器“能够将I/O数据吞吐能力提升至目前x86服务器内所使用的PCIe第三代总线的5.6倍。”
IBM公司表示,其将成为AI实现方案的理想之选——其能够摄取“海量数据,同时完成实时推理(对象检测)。”
Hutsell表示,FlashSsytem 900已经能够利用InfiniBand连接支持SRP(即SCSI over RDMA协议),并可将SCSI代码替换为NVMe代码以进一步降低延迟水平。
IBM公司在技术预览中使用的硬件配置。
在展示中,AC922服务器通过一个双閊NVMe-oF EDR 100Gbit Mellanox适配器接入一台Mellanox Switch-IB 2 7800交换机——后者又接入五台FlashSystem 900阵列,每台阵列配有4个每秒40 Gbit QDR InfiniBand端口。
这套配置可提供每秒41 GB总传输带宽,其中读取与写入能力最高可分别达到每秒23 GB与每秒18 GB。不过IBM方面并没有给出访问延迟数据。
IBM公司指出,POWER 9服务器加FlashSystem 900/NVMe-oF InfiniBand的组合能够为企业AI提供必需的低延迟与高传输带宽,意味着其在性能表现上要优于采用NVMe连接的其它一切x86服务器加闪存存储阵列方案。然而由于延迟数字尚未提供,这样的结论似乎很难令人信服。
Excelero公司为美国宇航局艾姆斯实验室打造的一套NVMe over Fabrics虚拟SAN系统可为4K IOPS提供平均199微秒的延迟水平,其最低延迟甚至仅为8微秒。这套系统的传输带宽在1 MB存储块大小的情况下可超过每秒140 GB。
该系统拥有128个计算节点,因此不能直接与IBM公司演示的单服务器进行比较。尽管如此,我们还是能够借此发现一些端倪,也许某家至强SP服务器供应商会采用PCIe第四代总线、NVMe over Fabrics外加每秒100 Gbit以太网连接全闪存阵列系统来观察所能达到的性能峰值。
好文章,需要你的鼓励
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
Gartner 预测,大语言模型 (LLM) 提供商市场即将进入"灭绝"阶段。在竞争激烈的环境下,巨额资本投入成为主要挑战。预计到 2025 年,全球生成式 AI 支出将达到 6440 亿美元,较 2024 年增长 76%。专家认为,LLM 市场将经历类似云计算市场的整合,最终可能只剩少数几家主导者。
苹果公司推出新一代 AI 智能服务 Apple Intelligence,包括优先通知等多项功能。该服务现已覆盖欧盟用户和 Vision Pro 设备,并支持多种语言。新功能随 iOS 18.4 等系统更新推出,涵盖通知管理、图像生成和视频创作等方面,进一步提升用户体验。
OpenAI计划今年晚些时候向开发者社区发布一个"开放权重"模型,这是该公司自2019年以来的首次尝试。新模型将具备推理能力,类似于现有的o3-mini模型。这一战略转变旨在应对来自竞争对手的压力,同时为开发者提供更多定制和使用灵活性。虽然不完全开源,但这种方式可能有助于OpenAI在保持技术领先的同时,满足市场对更开放AI发展的需求。