Dell EMC已经对自己超高/高性能计算C4130服务器进行了加速,支持新的CPU和GPU。
这个1U机架式C4130配置了2个至强E5-2600 v4处理器,最高1TB内存,最多4个GPU,例如NVIDIA Tesla P100s,或者4个协同处理器例如英特尔Phis,有2个后知PCIe插槽。
此外这款服务器还支持InfiniBand EDR、FDR以及NVIDIA GPUDIRECT互联。
更新的C4140同样是1U机架式,最多1.5TB RAM,2个至强SP 20核CPU,和之前一样支持4个GPU,可以是Tesla P40、P100和V100s。Dell EMC表示,这些GPU是相互连接的。
Dell EMC C4140服务器
此外这款服务器还有最多2个NVMe附加卡式的闪存驱动器,后部有PCIe插槽,1.6、3.2和6.4TB几个容量选择,支持Mellanox ConnectX-4单端口和双端口EDR适配卡。
我们了解到,采用Tesla V100 GPU和4个NVLink的C4140最多可提供62.8 TFLOPS单精度性能。
Machine Learning and Deep Learning Ready Bundles产品结合了与测试的、经过验证的C4240服务器、存储、网络和服务,针对机器学习和深度学习应用进行了优化。
这里没有提到C4140支持英特尔Phi协同处理器,但是Dell EMC表示,计划推出与英特尔技术紧密联系的Ready Bundles。
Mellanox Technologies市场副总裁Gilad Shainer表示:“我们正在与Dell EMC合作共同推出新的功能,并将新的HDR 200Gbit/s引入未来的Dell系统。”
C4140将与HPE的Apollo sx40和pc40服务器有竞争关系,后者也是1U双路、基于英特尔至强Skylake的服务器,支持最多4个带有NVLink的Tesla GPU。
PowerEdge C4140将从2017年12月开始在全球范围内供货,Ready Bundles for Machine Learning and Deep Learning将在2018年上半年通过Dell EMC及其渠道合作伙伴供货。
好文章,需要你的鼓励
Brave Software开始为其AI助手Leo提供可信执行环境(TEE)技术,以增强云端AI服务的隐私保护。目前该功能仅在测试版本中支持DeepSeek V3.1模型。TEE技术能为数据处理提供可验证的机密性和完整性保障,解决传统云端AI模型处理用户请求时数据暴露的隐私风险。该技术采用Intel TDX和Nvidia TEE方案,让用户能够验证服务提供商的隐私承诺,确保AI响应来自声明的模型,未来将扩展支持更多AI模型。
华南师范大学团队开发的GraphTracer框架,通过构建信息依赖图解决多智能体系统高失败率问题。该方法摒弃传统时间序列分析,追踪信息流网络精确定位错误根源,在失败归因准确率上比现有方法提升18.18%,并已开源供实际应用。
OpenAI宣布与富士康合作,专注于下一代AI基础设施硬件的设计和美国制造准备工作。双方将结合OpenAI对AI模型需求的洞察和富士康的制造专业知识,共同设计多代数据中心硬件,强化美国AI供应链,并在美国本土构建关键AI数据中心组件。此次合作旨在满足先进AI模型对专用物理基础设施的需求,加速先进AI系统的部署。
杜克大学研究团队通过几何框架分析发现,AI推理过程呈现连续"流动"特征而非离散跳跃。研究表明逻辑结构像河床般调节推理流的速度和方向,即使面对不同语言和领域的内容,相同逻辑结构的任务在AI内部表现出惊人的几何相似性。这一发现颠覆了AI为"随机鹦鹉"的传统认知,证明AI具备真正的逻辑理解能力,为AI可解释性和系统优化开辟新方向。