至顶网服务器频道 06月22日 新闻消息:超级计算机制造商Cray近日宣布一款针对其XC超级计算机家族的分析软件套件,包括各种图形分析、深度学习和大数据分析工具。
有了Cray Urika-XC软件套件,分析和人工智能工作负载就可以与科学建模以及模拟一起运行,而无需在系统之间迁移数据。这让用户可以在像天气预报、预测维护、医疗模拟以及欺诈检测等领域中运行融合的分析和模拟工作负载。
"你可以运行高性能计算模拟,然后运行对相同的数据集运行分析处理,而无需迁移这些数据,"Cray公司分析及人工智能产品战略总监Tim Barr表示。另外一个价值定位即简化安装。"不用担心安装、配置或者构建集群的步骤,我们将所有这些复杂性都拿掉了。"
尽管Cray有商业客户,但是其核心客户群是政府机构、学术机构和科研机构。XC系列超级计算机具有集群架构,可以实现每个系统超过500 petaflops的持续性能。1 petaflop相当于每秒一千万亿次浮点运算。该系统采用英特尔至强处理器、英特尔至强Phi处理器以及Nvidia Tesla图形处理单元加速器。
Cray提供的软件包涵盖Cray Graph Engine、Apache Spark、BigDL面向Spark的分布式深度学习框架、分布式Dask并行计算库,用于分析和Python Scala、Java和R语言。Cray表示,将提供对该软件套件的全方位支持。大多数软件都是现成的开源代码,除了Graph Engine,这是一个内存语义图数据库,包括Cray专有的针对大规模图形问题的扩展。
Barr表示,由于要求本地存储,所有并不支持Hadoop。XC没有节点上的磁盘,其Lustre文件系统并不是针对Hadoop Dsitributed File System优化的。"对于Hadoop数据湖来说有有点过了。"
Cray的这个软件包主要瞄准了现有的客户群,"有很多客户需要查看使用率,因为他们在处理器生命周期内投入了重资。这让他们要在已经采购的系统之间迁移更多的工作负载。"
Cray Urika-XC软件套件将在第三季度供货,定价信息未公布。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。