作为一家拥有33年服务器研发历史的企业,联想一直在坚持不懈地引领着服务器的技术创新,为客户业务应用不断重新定义新的算力。
早在几年前,联想就提出了高性能、高可靠、高可扩展、低能耗(“三高一低”)的服务器设计理念。如今,随着AI应用进入百花齐放的后训练时代,联想对“三高一低”的设计理念进一步演进,提出打造“更强大、更稳定、更高效、更绿色”的算力基础设施,并针对业务数据到智能业务全过程的三个关键应用场景——数据处理、模型训练和推理应用分别进行优化,形成数据处理算力服务器、AI训练算力服务器、推理应用算力服务器三大家族。
在日前举行的联想创新科技大会上,联想对三大服务器产品家族全线升级,并推出了一系列服务器新品,以帮助企业构建更强大、更高效、更稳定、更绿色的混合式基础设施,助力人工智能的快速落地。这些产品包括:
这些服务器新品都采用了英特尔最新一代处理器——英特尔®至强®6,与上一代处理器相比,配备更多内核和更快内存,每个内核均内置 Al加速功能,性能更上一层楼。同时,它们分别面向不同的AI应用场景进行了针对性优化,以充分释放这些服务器的算力潜能。
数据预处理是人工智能应用的第一步。在此阶段需要利用服务器对业务数据和公共数据进行加工和处理,这不仅要求服务器具有强大的性能,还要保证算力稳定可靠,同时服务器还要有较高的数据带宽,以保障数据高速传输。
联想数据处理算力服务器系列在单一机柜中能够实现高达48个计算节点,可配置12288个英特尔®至强®6性能核心,再结合8800MHz的MRDIMM,可以极大地提升生成式人工智能的性能。
随着机柜内节点数量的增加和处理器核心数量的不断攀升,散热问题开始凸显,从风冷转向液冷成为必然。联想采用专利的无滴漏不锈钢盲配机制,使用航空级防滴连接器与计算托盘紧密相连。13U16节点的高密度全液冷设计,整机无需风扇,既减少高频振动的潜在影响,又有效整合空间效率,而且持续运行在Turbo模式可大幅提升算力效率,节约40%的数据中心能耗。
模型训练通常需要借助多GPU卡来完成以支持千亿级参数规模模型训练,因此AI训练服务器必须支持GPU+CPU的异构计算组合,以及解决多GPU卡部署带来的制冷挑战。
联想AI训练算力服务器配置2颗英特尔®至强®6处理器,8块GPU通过OAM互联,可为模型训练应用输出澎湃算力。而在散热方面,服务器支持联想冷板式CPU/GPU液冷方案和600W以上处理器浸没式液冷技术,为AI训练服务器家族绿色节能提供保障。
AI训练服务器不仅仅是硬件组合,为了将服务器的性能发挥到极致,还要有一个强大的算力调度平台。
联想AI训练服务器还有联想万全异构智算平台 3.0的加持,借助它不仅可以实现异构的算力调度,而且还通过异步读写访存优化、算子优化和计算路径优化等,降低训练开销15%以上。实测结果显示,联想单台8卡 GPU服务器部署DeepSeek,吞吐量达到12000tokens/s,整个记录目前还在不断地刷新中。
联想推理应用算力服务器:全域覆盖加速智能决策落地
推理和决策是人工智能应用价值的最终落地。为了满足推理应用的需求,服务器需要具有通用性,要同时支持CPU和GPU,还要支持各种内存和网卡等。
联想推理应用算力服务器系列支持英特尔®至强®6和主流PCIe GPU,每个CPU内核都集成了英特尔AMX BF16和FP16加速器,在推理应用中与GPU配合性能天衣无缝,甚至直接调用CPU算力就能支持小规模推理业务。
在散热方面,联想推理应用算力服务器也支持CPU/GPU/MEM/VR的全液冷方案,结合英特尔®至强®6能效核优异的能耗性能比,能为客户提供2倍性能、4倍性能功耗比。
作为AI时代下的弄潮儿,2024年联想服务器在不断的追求超越,具有与时俱进的产品理念和前瞻性布局。根据IDC最新季度服务器跟踪报告,2024年实现了全年180%的最快市场增长。2025年是全球人工智能基础设施持续演进的关键之年。联想服务器将始终坚持通过技术创新与生态共建双轮驱动,助力行业客户突破人工智能规模化部署的各种技术瓶颈,矢志不渝地扮演技术创新与场景落地的核心推动力量。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。