近日,联想集团宣布基于联想问天WA7780 G3服务器,在行业内首次实现单机部署DeepSeek-R1/V3 671B大模型,以低于行业公认1TGB显存(实际768GB)承载多并发用户流畅体验,可以满足千人企业的使用需求,为行业树立了企业级大模型部署新基准。
联想问天WA7780 G3大模型训推一体服务器
突破性能限制,树立DeepSeek-R1大模型部署新基准
作为全球关注的焦点,众多企业正准备在本地化部署DeepSeek大模型。然而,在落地实施过程中用户普遍面临以下关键决策难题:单机能否部署满血版DeepSeek R1?所需最低配置是什么?如何确保高并发与吞吐量下的优质体验?如何避免采购陷阱?
联想此次突破为企业提供科学选型指南。针对行业公认1TB显存是千亿参数大模型运行基线的背景下,联想研发团队通过专家并行优化、智能访存架构升级及PCIe 5.0全互联架构创新,大幅提升了显存利用率,从而实现了性能的提升。
据了解,联想WA7780 G3服务器在2月初已实现单机768GB GPU显存条件下部署DeepSeek 671B R1和V3满血模型,并能满足中小企业的并发需求。进而通过联想万全异构智算平台的访存优化,专家并行调用策略等技术优化手段,实现了单机一个月内并发能力增长10倍, 同时还提升了每路用户的TPOT、TTFT等综合性能体验
持续优化升级,解决用户体验难题
联想的这一创新成果揭示了设备选型的新维度,也提醒企业审慎评估各种测试数据,摒弃对总吞吐量和总并发数等指标的片面追求,而应从用户体验出发,关注这些指标背后的隐藏信息,如数据精度等。实际上,如果将数据精度从FP8转为int8或int4(即量化),虽能明显改善性能表现(如更高并发量和高吞吐量),但会牺牲结果的准确性,显然这不是用户所期望的。
需要特别指出的是,高吞吐量和高并发量也并不等同于用户体验好。若服务器GPU卡配置不高,局部通信瓶颈可能引发响应延迟使体验降级,这正是联想着力解决的难点之一。
毫无疑问,联想技术突破将有效破除大模型落地瓶颈,显著加速大模型在企业的落地进程。未来,联想基础设施业务群与联想研究院ICI实验室将继续携手合作,依托联想万全异构智算平台对DeepSeek平台从AI预训练、后训练到推理的全流程进行持续优化,为客户奉献出性能更佳、性价比更高的产品和解决方案,以加速DeepSeek大模型的落地,推动新一轮生产力革命。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。