机器学习和数据分析等数据密集型工作负载已变得司空见惯。为处理这些计算密集型任务,企业需要为实现高性能进行优化的加速服务器。
英特尔于昨日发布第3代英特尔至强可扩展处理器(代号“Ice Lake”)。该处理器基于全新的架构,可大幅提升其性能和可扩展性。在NVIDIA GPU和网络功能的帮助下,新系统成为理想的企业加速计算平台。此外,新系统还具备可实现GPU加速应用的功能。
Ice Lake平台加速计算的优势
Ice Lake采用了PCIe Gen 4,其数据传输速率比前代产品增加了一倍,现在已经可以与基于NVIDIA Ampere架构的GPU(如NVIDIA A100 Tensor Core GPU)的原生速度相匹配。PCIe Gen 4的采用提高了与GPU间的吞吐量,这对于涉及大量训练数据的机器学习工作负载来说尤为重要。同时,PCIe Gen 4的采用也提高了数据密集型任务的传输速度,比如通过高性能NVIDIA A40数据中心GPU等加速的NVIDIA RTX虚拟工作站3D设计任务。
PCIe性能的提高加快了GPU直接内存访问的传输速度。GPU和采用GPUDirect视频技术的设备之间视频数据I/O通信速度的加快,可助力实现更强大的直播解决方案。
数据速率的提高还实现了200Gb/s的网络速度,例如NVIDIA ConnectX家族的HDR 200Gb/s InfiniBand网卡、200Gb/s以太网网卡,以及即将推出的NDR 400Gb/s InfiniBand网卡技术。
Ice Lake平台支持64条PCIe通道,因此可以在同一台服务器中安装更多的硬件加速器,包括GPU和网卡等,从而提高每台主机的加速密度。这也意味着由最新NVIDIA GPU和NVIDIA 虚拟PC软件加速的多媒体VDI环境可以实现更高的用户密度。
这些增强功能实现了前所未有的GPU加速扩展。企业可以通过在一台主机内使用更多的GPU并更加有效地连接多台主机的GPU,处理最大规模的工作。
英特尔还提高了Ice Lake内存子系统的性能,将DDR4内存通道数从6条增加到8条,使内存的最高数据传输速率达到3200MHz。这使得从主内存到GPU和网络的数据传输带宽变得更大,进而可提高数据密集型工作负载的吞吐量。
最后,处理器本身的改进也进一步加快了计算工作负载的速度。每个时钟周期的指令数增加10-15%,可使加速工作负载所对应的CPU部分整体性能提升多达40%。此外,核的数量也有所增加,比如8xxx系列中的核心多达40个。这将提高每台主机的虚拟桌面会话密度,进一步增加服务器GPU投资的回报。
NVIDIA十分高兴地看到合作伙伴发布由NVIDIA GPU加速的全新Ice Lake系统,用于包括戴尔科技专为GPU加速而打造的Dell EMC PowerEdge R750xa,以及基于第3代英特尔至强可扩展处理器和PCIe Gen4打造的全新联想ThinkSystem服务器(其中有多个型号搭载NVIDIA GPU)。
英特尔的全新Ice Lake平台及随附的加速器硬件非常适合准备更新数据中心的企业客户。全新架构的增强功能使企业能够运行性能更加出色的数据中心级加速应用。NVIDIA与英特尔的共同客户将能够迅速从中获益。
敬请访问NVIDIA认证服务器目录,查看采用Ice Lake CPU的GPU加速服务器型号列表。后续将会有更多系统加入,欢迎定期访问该目录。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。