ZDNet至顶网服务器频道 03月02日 新闻消息:AMD公司近日宣布,惠普ProLiant DL380 Gen9已经采用为高性能计算而生的AMD FirePro™S9150服务器GPU(图形处理单元)。AMD FirePro™服务器GPU与惠普ProLiant DL380 Gen9服务器结合,专门用于各种应用计算,包括学术和政府集群,石油和天然气研究和深度神经网络。强大的软件生态系统支持AMD FirePro™S9150服务器GPU,让开发人员能够更好地利用其计算性能,包括针对OpenCL™2.0的支持。
AMD FirePro™服务器GPU采用首款以计算负载为中心的AMD GCN架构,支持增强双精度浮点计算,双精度计算性能突破每秒2万亿次大关。借助16GB GDDR5显存和235瓦最大功耗,AMD FirePro s9150服务器GPU提供巨大计算性能,同时最大化可用的功率预算。
AMD专业显卡总经理Karl Freund表示:“我们很自豪能够为惠普服务器用户提供AMD FirePro服务器GPU和计算能力,来管理各种场景的密集型计算负载。惠普ProLiant DL380 Gen9服务器用户可以受益于开放标准,如OpenCL™和OpenMP,也能受益于GPU计算和多GPU支持。”
惠普机架式和塔式服务器副总裁和总经理Peter Schrady表示:“借助AMD FirePro GPU,惠普ProLiant DL380可以比以往更快地运行图形密集型应用程序。我们的政府、学术界和能源客户将会看到性能优势,让惠普ProLiant服务器帮助他们完成更多工作和任务。”
借助AMD Stream技术,客户将能够利用AMD FirePro s9150服务器GPU提供的大规模并行处理能力,加速图形之外的应用程序。AMD FirePro s9150服务器GPU特点:
◆2.53 TFLOPS峰值双精度性能 – 最高领先竞争产品77%
◆5.07 TFLOPS峰值单精度性能 – 最高领先竞争产品18%
◆业界领先的显存配置 – 16GB GDDR5显存,512-bit显存界面,显存带宽高达320 GB/s
◆2816个流处理器(44个GCN计算单元)
◆支持纠错码 (ECC) 显存(仅限外部显存)
◆支持OpenCL™ 2.0
◆最大功耗235瓦
AMD FirePro s9150服务器GPU通过开启OpenMP,支持各行业工作负载处理。OpenMP是在C、C ++和Fortran语言中实现高层次并行计算的API。在细分市场,如石油和天然气,计算机辅助工程与计算科学,许多组织都在OpenMP上进行了大量投资,以创建可扩展的工作负载。 AMD与PathScale公司合作支持OpenMP 4.0,将允许用户在这些HPC领域利用AMD FirePro s9150服务器GPU的计算能力。
此外,惠普ProLiant WS460c图形刀片服务器采用了AMD FirePro™ S4000X服务器GPU。凭借高品质的3D图形和多重显示功能,AMD FirePro™ S4000X服务器GPU模块,为远程桌面提供了工作站级图形性能。AMD FirePro™ S4000X服务器GPU在设计上考虑到刀片服务器和刀片工作站平台特点,每个模块最大功耗45瓦,包括2GB GDDR5显存,显存带宽高达72GB/s,并支持多达六个高分辨率远程显示设备。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。