戴尔今天宣布对高性能计算服务器产品线进行扩充,推出了一系列采用Nvidia和英特尔最新芯片硬件的新系统。

戴尔表示,此次推出的PowerEdge服务器是与这些芯片厂商合作设计的,将使任何规模的企业都能执行AI模型训练、高性能计算建模和模拟、核心到边缘推理以及数据可视化等工作负载。
此次推出的新型号中,最高端的是PowerEdge XE9680系统,戴尔称它是首款配备了8个GPU的高性能服务器。戴尔表示,客户可以选择Nvidia的H100 Tensor Core GPU或者是A100 Tensor Core GPU,再结合即将面市的第四代英特尔Xeon Scalable GPU,以及戴尔全新的智能冷却技术,为AI工作负载提供无与伦比的性能。
其次是PowerEdge XE9640,一款2U的性能优化型服务器,配备了4个英特尔新的Data Center GPU Max系列处理器以及2个英特尔Xeon Scalable CPU。据戴尔称,PowerEdge XE9640全面采用直接液体冷却的方式,可以将能源成本降低多达3.1倍,同时实现更高的机架密度。
最后是PowerEdge XE8640,一款风冷式4U性能型服务器,配备4个Nvidia H100或者A100 GPU、2个英特尔Xeon Scalable CPU以及Nvidia NVLink技术。这三款服务器都将于2023年上半年在全球范围内供货。
戴尔表示,此次发布是推动高性能计算和人工智能更大范围的普及。为此,戴尔的HPC PowerEdge服务器今天将通过Dell Apex在美国上市,这是一款即用即付型基础设施产品,将本地的、按使用付费的基础设施服务器和存储与云托管资源相结合。
戴尔认为,这很可能会改变市场的游戏规则,让任何规模的企业组织都能够通过一种完全托管的、订阅式的体验,在即服务的基础上运行大规模、计算密集型高性能计算工作负载。戴尔表示,客户通过使用Apex高性能计算产品可以访问运行高性能计算工作负载所需的一切,包括高性能计算集群管理器、容器编排器、工作负载管理器和底层硬件,并且这些硬件都针对生命科学或者是制造等特定工作负载进行了优化。客户也可以受益于灵活的容量选项,包括一年、三年和五年的订阅方式。
戴尔PowerEdge、高性能计算和核心计算产品组合和产品管理副总裁Rajesh Pohani预测,市场对Apex高性能计算服务的需求将会很大。
他说:“随着计算创新不断加速以跟上需求的步伐,客户希望升级他们的IT环境并且采用先进的计算能力来加速发现和洞察的速度。全新的戴尔服务器和解决方案,将让各种规模的企业都能获得曾经只有全球最大研究机构和政府机构才能获得的技术,让他们能够应对高性能计算,简化人工智能的采用,并且推动他们的业务向前发展。”
此外,戴尔正在致力于利用量子计算加速计算。此次戴尔还推出了新的Dell Quantum Computing Solution量子计算解决方案,已经在美国和加拿大上市,旨在处理复杂的工作负载例如化学和材料模拟、自然语言处理和机器学习。该解决方案在戴尔PowerEdge服务器的基础上构建了典型的量子模拟器,并与IonQ基于云的量子计算服务进行集成,让企业客户能够在本地环境或者云端运行量子工作负载。
IDC分析师Peter Rutten表示,加速计算技术对于帮助企业从每天生成的海量数据中获取更多价值来说,是至关重要的。“戴尔将抓住加速Dell PowerEdge服务器和解决方案的机会,满足客户处理苛刻工作负载的需求。”
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。