ZD至顶网服务器频道 02月03日 编译:前不久,欧洲ExaNeSt HPC的试点项目已经起步,此项目仅用到1000个内核,同时所用到的内核并非英特尔制造。
欧洲的ExaNeSt项目组建的初衷,就是想利用1000万个ARM处理器来完成,用来支持项目里的超级计算的项目。
除此之外,ExaNeSt称之为“稻草人原型”的一系列处理将采用液体冷却,并使用处理器结构里的闪存,而且这一系列处理将采用“创新的快速互连”,以避免拥塞。
该原型不会拥有接近百万个处理器:它只有1000个处理器内核,采用64位ARM赛灵思Zynq Ultrascale+处理器,16 Gbps互连以及每个母板上的16 GB低功耗内存。
该项目于2015年12月举行了启动仪式,同时还宣布了欧盟提供850万英镑的资金支持项目的三年设计项目的消息。
该项目预计最终可找到所需的冷却技术以运行每个机架高达240千瓦的计算功率,但在今年一月的一次讲演里,Crete大学的Manolis Katevenis和 Nikolaos Chrysos却提出,互联是超级计算机器的最大障碍。
其原因是由移动数据成本导致的,移动数据成本以pici焦耳计算,互连移动数据成本要高于处理成本,而且这一发展形势还在上升。
ExaNeSt的商业合作伙伴ExaNoDe将设计基于ARM的“微服务器HPC”实现,据悉,项目的其他贡献者包括EuroServer(处理器间通信设计)、Ecoscale(可编程硬件加速器)、赛灵思(FPGA和通信)、美光(低功耗内存和存储)和Kaleao(产品化)。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。