Nvidia今天宣布推出了一款用于服务器的加速卡新品,并公布了最新用于自己内部研究集群中的超级计算机Selene,该集群也是目前全球排名第七的最强系统。
Nvidia是在ISC Digital线上高性能计算大会期间发布这些公告的。
首先,来看看这款服务器加速器,它其实是Nvidia旗舰产品A100 GPU的一个新版本(如图所示),结构更紧凑了。Nvidia在PCIe卡上配置了一个A100芯片,让企业可以将其接入服务器,从而为人工智能应用、科学模拟以及通常使用GPU的工作负载提速。
Nvidia此前已经在今年早些时候推出了一款基于A100的加速器,带有4个或者8个板载GPU。今天发布的单GPU PCIe卡可以轻松插入企业现有服务器中,从而让Nvidia更好地瞄准了一个关键市场领域:那些希望在GPU项目中利用现有基础设施的企业和组织。
如下图所示,就GPU核心规格而言,这款PCIe卡基本上和之前是类似的,主要区别有两点。首先,该产品的散热设计功率(衡量芯片热量散发的指标)降低了38%,使其运行的时候足够冷却,连接到服务器而无需专用风扇。此外,为了提高效率,这款PCIe卡在速度上做了一些权衡,性能是同类产品的90%。
相信搭载Nvidia的A100 GPU的服务器产品将很快上市。Nvidia表示,戴尔和HPE等十几家服务器厂商计划发布超过50款配置了A100的服务器系统,预计今年夏天就会有30款问世。
企业数据中心并不是Nvidia芯片唯一瞄准的领域。目前三大主流公有云厂商都已经采用了Nvidia的GPU,不仅如此,Nvidia GPU还被广泛用于超级计算机中。在此次ISC Digital大会上,Nvidia透露了有关这方面工作的最新信息,称全球TOP500榜单中前25强超级计算机中有20个都在后台使用了Nvidia GPU。
这其中就包括了Selene——Nvidia专门为自己内部研究集群打造的超级计算机。该系统是位列全球第七,性能相当于每秒27.5次万亿次运算,而且值得注意的是,Selene也是全球最节能的系统之一。
Nvidia高级产品营销经理Dion Harris在博客中详细介绍说,“Selene是TOP100系统中唯一一个打破了每瓦20 gigaflops的系统。”
除了用于扩展Nvidia的研究范围之外,Selene系统还可以作为Nvidia DGX设备系列的销售展示。Nvidia表示,通过组装DGX A100设备,仅用了4周时间就完成了整套超级计算机的组装,每个系统提供8个A100 GPU,而通常某些情况下建造大型超级计算机可能要花费一年多的时间,显然这么快的速度对潜在客户来说是很有吸引力的。
Nvidia子公司Mellanox也参与了ISC Digital大会演示。去年,Nvidia斥资69亿美元收购了这家网络设备制造商,一部分原因是Mellanox在高性能计算市场上占有举足轻重的地位,特别是TOP500超级计算机中有305套系统都采用了Mellanox的技术。Nvidia在ISC Digital上透露,Nvidia GPU和Mellanox产品现在联合起来为全球将近2/3的TOP500系统提供动力。
Nvidia还借此机会推出了新的网络监控设备Mellanox UFM Cyber-AI,该系统会扫描数据中心或者超级计算机的流量情况,发现潜在的组件故障、性能问题、以及表明存在潜在漏洞的可疑活动。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。