Dell EMC已经对自己超高/高性能计算C4130服务器进行了加速,支持新的CPU和GPU。
这个1U机架式C4130配置了2个至强E5-2600 v4处理器,最高1TB内存,最多4个GPU,例如NVIDIA Tesla P100s,或者4个协同处理器例如英特尔Phis,有2个后知PCIe插槽。
此外这款服务器还支持InfiniBand EDR、FDR以及NVIDIA GPUDIRECT互联。
更新的C4140同样是1U机架式,最多1.5TB RAM,2个至强SP 20核CPU,和之前一样支持4个GPU,可以是Tesla P40、P100和V100s。Dell EMC表示,这些GPU是相互连接的。
Dell EMC C4140服务器
此外这款服务器还有最多2个NVMe附加卡式的闪存驱动器,后部有PCIe插槽,1.6、3.2和6.4TB几个容量选择,支持Mellanox ConnectX-4单端口和双端口EDR适配卡。
我们了解到,采用Tesla V100 GPU和4个NVLink的C4140最多可提供62.8 TFLOPS单精度性能。
Machine Learning and Deep Learning Ready Bundles产品结合了与测试的、经过验证的C4240服务器、存储、网络和服务,针对机器学习和深度学习应用进行了优化。
这里没有提到C4140支持英特尔Phi协同处理器,但是Dell EMC表示,计划推出与英特尔技术紧密联系的Ready Bundles。
Mellanox Technologies市场副总裁Gilad Shainer表示:“我们正在与Dell EMC合作共同推出新的功能,并将新的HDR 200Gbit/s引入未来的Dell系统。”
C4140将与HPE的Apollo sx40和pc40服务器有竞争关系,后者也是1U双路、基于英特尔至强Skylake的服务器,支持最多4个带有NVLink的Tesla GPU。
PowerEdge C4140将从2017年12月开始在全球范围内供货,Ready Bundles for Machine Learning and Deep Learning将在2018年上半年通过Dell EMC及其渠道合作伙伴供货。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。