近日,联想集团宣布基于联想问天WA7780 G3服务器,在行业内首次实现单机部署DeepSeek-R1/V3 671B大模型,以低于行业公认1TGB显存(实际768GB)承载多并发用户流畅体验,可以满足千人企业的使用需求,为行业树立了企业级大模型部署新基准。
联想问天WA7780 G3大模型训推一体服务器
突破性能限制,树立DeepSeek-R1大模型部署新基准
作为全球关注的焦点,众多企业正准备在本地化部署DeepSeek大模型。然而,在落地实施过程中用户普遍面临以下关键决策难题:单机能否部署满血版DeepSeek R1?所需最低配置是什么?如何确保高并发与吞吐量下的优质体验?如何避免采购陷阱?
联想此次突破为企业提供科学选型指南。针对行业公认1TB显存是千亿参数大模型运行基线的背景下,联想研发团队通过专家并行优化、智能访存架构升级及PCIe 5.0全互联架构创新,大幅提升了显存利用率,从而实现了性能的提升。
据了解,联想WA7780 G3服务器在2月初已实现单机768GB GPU显存条件下部署DeepSeek 671B R1和V3满血模型,并能满足中小企业的并发需求。进而通过联想万全异构智算平台的访存优化,专家并行调用策略等技术优化手段,实现了单机一个月内并发能力增长10倍, 同时还提升了每路用户的TPOT、TTFT等综合性能体验
持续优化升级,解决用户体验难题
联想的这一创新成果揭示了设备选型的新维度,也提醒企业审慎评估各种测试数据,摒弃对总吞吐量和总并发数等指标的片面追求,而应从用户体验出发,关注这些指标背后的隐藏信息,如数据精度等。实际上,如果将数据精度从FP8转为int8或int4(即量化),虽能明显改善性能表现(如更高并发量和高吞吐量),但会牺牲结果的准确性,显然这不是用户所期望的。
需要特别指出的是,高吞吐量和高并发量也并不等同于用户体验好。若服务器GPU卡配置不高,局部通信瓶颈可能引发响应延迟使体验降级,这正是联想着力解决的难点之一。
毫无疑问,联想技术突破将有效破除大模型落地瓶颈,显著加速大模型在企业的落地进程。未来,联想基础设施业务群与联想研究院ICI实验室将继续携手合作,依托联想万全异构智算平台对DeepSeek平台从AI预训练、后训练到推理的全流程进行持续优化,为客户奉献出性能更佳、性价比更高的产品和解决方案,以加速DeepSeek大模型的落地,推动新一轮生产力革命。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。