IBM公司在本月早些时候于纽约召开的AI纽约峰会上指出,其POWER 9方案在支持AI以实现“认知”工作能力方面优于通用或专用型X86商业现成(简称COTS)工具。
蓝色巨人最近公布了一项“演示”,据称其能够利用自有专有服务器配合低延迟/高带宽技术接入FlashSystem阵列——例如PCIe Gen 4、EDR与QDR InfiniBand以及NVMe over Fabrics,从而在性能表现上将COTS服务器及存储方案远远甩在身后。
当然,E8、Excelero、Pavilion以及Farmation Data Systems等初创企业都已经在推出NVMe over Fabrics访问型存储阵列,而Pure Storage也有意作出尝试——这一切都能够支持立足X86服务器的访问能力。
另外,IBM公司在展示中还使用了NVMe over Fabrics InfiniBand(简称NVMe-oF)。IBM公司并没有正式公布在AC922服务器或者FlashSystem 900阵列上支持NVMe-oF协议,但从目前的技术预览来看确有这种可能。
此次展示于今年12月5日到6日召开的AI纽约峰会上正式亮相。荐AC922采用PCIe第四代总线,速度是目前大多数服务器所使用的PCIe第三代总线的两倍。
IBM公司还向与会者们展示了基于POWER 9的AC922与五台FlashSystem 900阵列利用NVMe-oF实现对接的预览方案,并表示其能够有效降低数据访问延迟并提升传输带宽。
蓝色巨人Flashsystem产品组合与赋能战略经理Woody Hutsell在博文中指出,这台AC922服务器“能够将I/O数据吞吐能力提升至目前x86服务器内所使用的PCIe第三代总线的5.6倍。”
IBM公司表示,其将成为AI实现方案的理想之选——其能够摄取“海量数据,同时完成实时推理(对象检测)。”
Hutsell表示,FlashSsytem 900已经能够利用InfiniBand连接支持SRP(即SCSI over RDMA协议),并可将SCSI代码替换为NVMe代码以进一步降低延迟水平。
IBM公司在技术预览中使用的硬件配置。
在展示中,AC922服务器通过一个双閊NVMe-oF EDR 100Gbit Mellanox适配器接入一台Mellanox Switch-IB 2 7800交换机——后者又接入五台FlashSystem 900阵列,每台阵列配有4个每秒40 Gbit QDR InfiniBand端口。
这套配置可提供每秒41 GB总传输带宽,其中读取与写入能力最高可分别达到每秒23 GB与每秒18 GB。不过IBM方面并没有给出访问延迟数据。
IBM公司指出,POWER 9服务器加FlashSystem 900/NVMe-oF InfiniBand的组合能够为企业AI提供必需的低延迟与高传输带宽,意味着其在性能表现上要优于采用NVMe连接的其它一切x86服务器加闪存存储阵列方案。然而由于延迟数字尚未提供,这样的结论似乎很难令人信服。
Excelero公司为美国宇航局艾姆斯实验室打造的一套NVMe over Fabrics虚拟SAN系统可为4K IOPS提供平均199微秒的延迟水平,其最低延迟甚至仅为8微秒。这套系统的传输带宽在1 MB存储块大小的情况下可超过每秒140 GB。
该系统拥有128个计算节点,因此不能直接与IBM公司演示的单服务器进行比较。尽管如此,我们还是能够借此发现一些端倪,也许某家至强SP服务器供应商会采用PCIe第四代总线、NVMe over Fabrics外加每秒100 Gbit以太网连接全闪存阵列系统来观察所能达到的性能峰值。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。