作为一家拥有33年服务器研发历史的企业,联想一直在坚持不懈地引领着服务器的技术创新,为客户业务应用不断重新定义新的算力。
早在几年前,联想就提出了高性能、高可靠、高可扩展、低能耗(“三高一低”)的服务器设计理念。如今,随着AI应用进入百花齐放的后训练时代,联想对“三高一低”的设计理念进一步演进,提出打造“更强大、更稳定、更高效、更绿色”的算力基础设施,并针对业务数据到智能业务全过程的三个关键应用场景——数据处理、模型训练和推理应用分别进行优化,形成数据处理算力服务器、AI训练算力服务器、推理应用算力服务器三大家族。
在日前举行的联想创新科技大会上,联想对三大服务器产品家族全线升级,并推出了一系列服务器新品,以帮助企业构建更强大、更高效、更稳定、更绿色的混合式基础设施,助力人工智能的快速落地。这些产品包括:
这些服务器新品都采用了英特尔最新一代处理器——英特尔®至强®6,与上一代处理器相比,配备更多内核和更快内存,每个内核均内置 Al加速功能,性能更上一层楼。同时,它们分别面向不同的AI应用场景进行了针对性优化,以充分释放这些服务器的算力潜能。
数据预处理是人工智能应用的第一步。在此阶段需要利用服务器对业务数据和公共数据进行加工和处理,这不仅要求服务器具有强大的性能,还要保证算力稳定可靠,同时服务器还要有较高的数据带宽,以保障数据高速传输。
联想数据处理算力服务器系列在单一机柜中能够实现高达48个计算节点,可配置12288个英特尔®至强®6性能核心,再结合8800MHz的MRDIMM,可以极大地提升生成式人工智能的性能。
随着机柜内节点数量的增加和处理器核心数量的不断攀升,散热问题开始凸显,从风冷转向液冷成为必然。联想采用专利的无滴漏不锈钢盲配机制,使用航空级防滴连接器与计算托盘紧密相连。13U16节点的高密度全液冷设计,整机无需风扇,既减少高频振动的潜在影响,又有效整合空间效率,而且持续运行在Turbo模式可大幅提升算力效率,节约40%的数据中心能耗。
模型训练通常需要借助多GPU卡来完成以支持千亿级参数规模模型训练,因此AI训练服务器必须支持GPU+CPU的异构计算组合,以及解决多GPU卡部署带来的制冷挑战。
联想AI训练算力服务器配置2颗英特尔®至强®6处理器,8块GPU通过OAM互联,可为模型训练应用输出澎湃算力。而在散热方面,服务器支持联想冷板式CPU/GPU液冷方案和600W以上处理器浸没式液冷技术,为AI训练服务器家族绿色节能提供保障。
AI训练服务器不仅仅是硬件组合,为了将服务器的性能发挥到极致,还要有一个强大的算力调度平台。
联想AI训练服务器还有联想万全异构智算平台 3.0的加持,借助它不仅可以实现异构的算力调度,而且还通过异步读写访存优化、算子优化和计算路径优化等,降低训练开销15%以上。实测结果显示,联想单台8卡 GPU服务器部署DeepSeek,吞吐量达到12000tokens/s,整个记录目前还在不断地刷新中。
联想推理应用算力服务器:全域覆盖加速智能决策落地
推理和决策是人工智能应用价值的最终落地。为了满足推理应用的需求,服务器需要具有通用性,要同时支持CPU和GPU,还要支持各种内存和网卡等。
联想推理应用算力服务器系列支持英特尔®至强®6和主流PCIe GPU,每个CPU内核都集成了英特尔AMX BF16和FP16加速器,在推理应用中与GPU配合性能天衣无缝,甚至直接调用CPU算力就能支持小规模推理业务。
在散热方面,联想推理应用算力服务器也支持CPU/GPU/MEM/VR的全液冷方案,结合英特尔®至强®6能效核优异的能耗性能比,能为客户提供2倍性能、4倍性能功耗比。
作为AI时代下的弄潮儿,2024年联想服务器在不断的追求超越,具有与时俱进的产品理念和前瞻性布局。根据IDC最新季度服务器跟踪报告,2024年实现了全年180%的最快市场增长。2025年是全球人工智能基础设施持续演进的关键之年。联想服务器将始终坚持通过技术创新与生态共建双轮驱动,助力行业客户突破人工智能规模化部署的各种技术瓶颈,矢志不渝地扮演技术创新与场景落地的核心推动力量。
好文章,需要你的鼓励
在新任CIO Mark Sherwood的引领下,Wolters Kluwer借助多云战略、人工智能创新与信息安全管理,实现从传统出版向科技型企业的全面转型,加速全球业务落地与数字升级。
西部数据在Computex展会上发布了新款Ultrastar Data102 JBOD和OpenFlex Data24 4100 EBOF,升级了开放组合兼容性实验室(OCCL 2.0),致力于构建开放灵活、软件定义的数据中心架构。
微软将 GPT-4o 图像生成功能融入 Microsoft 365 Copilot,用户可在 Word、Excel、Outlook 等应用中直接创建与编辑逼真图片,此更新同时面向企业和普通用户,拓展了创意工具的边界。
Nvidia 首席执行官黄仁勋宣布通过全新 NVLink Fusion 系统,让数据中心客户可同时采用 Nvidia 与其他厂商的芯片,实现系统定制与竞争共存,巩固公司在 AI 领域的核心地位。