作为一家拥有33年服务器研发历史的企业,联想一直在坚持不懈地引领着服务器的技术创新,为客户业务应用不断重新定义新的算力。
早在几年前,联想就提出了高性能、高可靠、高可扩展、低能耗(“三高一低”)的服务器设计理念。如今,随着AI应用进入百花齐放的后训练时代,联想对“三高一低”的设计理念进一步演进,提出打造“更强大、更稳定、更高效、更绿色”的算力基础设施,并针对业务数据到智能业务全过程的三个关键应用场景——数据处理、模型训练和推理应用分别进行优化,形成数据处理算力服务器、AI训练算力服务器、推理应用算力服务器三大家族。
在日前举行的联想创新科技大会上,联想对三大服务器产品家族全线升级,并推出了一系列服务器新品,以帮助企业构建更强大、更高效、更稳定、更绿色的混合式基础设施,助力人工智能的快速落地。这些产品包括:
这些服务器新品都采用了英特尔最新一代处理器——英特尔®至强®6,与上一代处理器相比,配备更多内核和更快内存,每个内核均内置 Al加速功能,性能更上一层楼。同时,它们分别面向不同的AI应用场景进行了针对性优化,以充分释放这些服务器的算力潜能。
数据预处理是人工智能应用的第一步。在此阶段需要利用服务器对业务数据和公共数据进行加工和处理,这不仅要求服务器具有强大的性能,还要保证算力稳定可靠,同时服务器还要有较高的数据带宽,以保障数据高速传输。
联想数据处理算力服务器系列在单一机柜中能够实现高达48个计算节点,可配置12288个英特尔®至强®6性能核心,再结合8800MHz的MRDIMM,可以极大地提升生成式人工智能的性能。
随着机柜内节点数量的增加和处理器核心数量的不断攀升,散热问题开始凸显,从风冷转向液冷成为必然。联想采用专利的无滴漏不锈钢盲配机制,使用航空级防滴连接器与计算托盘紧密相连。13U16节点的高密度全液冷设计,整机无需风扇,既减少高频振动的潜在影响,又有效整合空间效率,而且持续运行在Turbo模式可大幅提升算力效率,节约40%的数据中心能耗。
模型训练通常需要借助多GPU卡来完成以支持千亿级参数规模模型训练,因此AI训练服务器必须支持GPU+CPU的异构计算组合,以及解决多GPU卡部署带来的制冷挑战。
联想AI训练算力服务器配置2颗英特尔®至强®6处理器,8块GPU通过OAM互联,可为模型训练应用输出澎湃算力。而在散热方面,服务器支持联想冷板式CPU/GPU液冷方案和600W以上处理器浸没式液冷技术,为AI训练服务器家族绿色节能提供保障。
AI训练服务器不仅仅是硬件组合,为了将服务器的性能发挥到极致,还要有一个强大的算力调度平台。
联想AI训练服务器还有联想万全异构智算平台 3.0的加持,借助它不仅可以实现异构的算力调度,而且还通过异步读写访存优化、算子优化和计算路径优化等,降低训练开销15%以上。实测结果显示,联想单台8卡 GPU服务器部署DeepSeek,吞吐量达到12000tokens/s,整个记录目前还在不断地刷新中。
联想推理应用算力服务器:全域覆盖加速智能决策落地
推理和决策是人工智能应用价值的最终落地。为了满足推理应用的需求,服务器需要具有通用性,要同时支持CPU和GPU,还要支持各种内存和网卡等。
联想推理应用算力服务器系列支持英特尔®至强®6和主流PCIe GPU,每个CPU内核都集成了英特尔AMX BF16和FP16加速器,在推理应用中与GPU配合性能天衣无缝,甚至直接调用CPU算力就能支持小规模推理业务。
在散热方面,联想推理应用算力服务器也支持CPU/GPU/MEM/VR的全液冷方案,结合英特尔®至强®6能效核优异的能耗性能比,能为客户提供2倍性能、4倍性能功耗比。
作为AI时代下的弄潮儿,2024年联想服务器在不断的追求超越,具有与时俱进的产品理念和前瞻性布局。根据IDC最新季度服务器跟踪报告,2024年实现了全年180%的最快市场增长。2025年是全球人工智能基础设施持续演进的关键之年。联想服务器将始终坚持通过技术创新与生态共建双轮驱动,助力行业客户突破人工智能规模化部署的各种技术瓶颈,矢志不渝地扮演技术创新与场景落地的核心推动力量。
好文章,需要你的鼓励
虽然软件工程师的平均薪酬比运维工程师高出10%以上,且有更多高薪职位晋升机会,但IT运维职业仍有其独特优势。首先,IT岗位入职门槛较低,约62%的运维工程师拥有本科学历,而开发者这一比例为73%。其次,IT工作更加多样化,从服务器故障排除到战略规划都有涉及。此外,IT工程师能更直接地看到工作成果,与最终用户接触更频繁。IT运维还提供更多样的职业发展路径,可转向网络、数据工程、网络安全等领域。最后,相比软件开发,IT运维工作受AI威胁较小。
微软研究院联合多所知名高校开发出SeerAttention-R稀疏注意力框架,专门优化AI推理模型的长序列解码效率。该技术通过自蒸馏学习让AI学会智能筛选重要信息,在保持近乎无损推理准确性的同时,实现了高达9倍的计算加速。系统采用轻量级插件设计,无需重训原模型即可集成,为长文本AI推理应用的普及铺平道路。
CityFibre宣布其专用企业级以太网服务覆盖范围扩大三倍,现可为超过26万家英国企业提供服务。此次扩展基于专用商用以太网平台,由工程合作伙伴Calix提供支持。该公司声称其以太网价格比主要竞争对手便宜20%。此项投资得益于全国范围内10Gbps XGS-PON技术升级,目前已在85%的网络中实施。
哈工大与阿里巴巴团队合作开发了ComfyUI-R1,这是首个专门用于自动化工作流生成的大型推理模型。该模型通过长链推理思维,能够根据用户自然语言指令自动生成可执行的ComfyUI工作流。在7B参数规模下,ComfyUI-R1达到97%格式正确率,在多项评估指标上显著超越GPT-4o等先进模型,为AI内容创作提供了更智能、更易用的解决方案。