至顶网服务器频道 05月11日 新闻消息: 5月9-11日,2017 GPU技术大会(GTC17)将在美国圣何塞举行。本届大会设置深度学习与人工智能、自动驾驶与无人车、VR与AR、计算机与机器视觉等12大核心议题,开设654场小型研讨会,有799位嘉宾将分享他们在GPU各个应用领域的心得与经验。
大会现场
据悉GTC17大会期间,浪潮将联合NVIDIA发布最新一代强大的的AI超级计算机,并将是本届大会在人工智能领域最具看点的新品之一。同时,作为铂金赞助商,浪潮还将现场展示SR-AI整机柜、NX5460M4、NF5280M5等多款面向人工智能应用的服务器,以及AI Station深度学习管理系统、T-Eye训练调优工具和并行深度学习框架Caffe-MPI等融工具、管理与框架于一体的强大AI软件平台。
浪潮为GTC17的铂金赞助商
GPU密度最高的SR-AI整机柜
浪潮在4月26日的IPF2017上与百度联合发布的SR-AI整机柜,是目前业界集成度最高的GPU Box。该产品是全球首个采用PCIe Fabric互联架构设计的AI方案,通过PCI-E交换机和I/O BOX两个模块的配合,GPU和CPU物理解耦池化,二者灵活配置,可实现支持16个GPU的超大扩展性节点,最大支持64块GPU,比一般的GPU服务器方案性能提高5-10倍,可支持千亿样本、万亿参数级别的模型训练。
在IPF2017上发布的SR-AI整机柜服务器
企业级AI刀片服务器NX5460M4
NX5460M4是一款面向企业级AI设计的GPU刀片节点,单节点可支持2块GPU卡,单系统可根据实际需求部署8-24个节点,具备极高的可扩展性并支持多种外形、散热和电源设计方案,单一I/O通道交换速率高达100Gbps,而集中管理和无电缆设计则可以有效降低OPEX(运营成本)。
在IPF2017上发布的SR-AI整机柜服务器
通用高扩展性AI服务器NF5280M5
NF5280M5是浪潮新一代旗舰双路服务器,将支持2U4卡的GPU异构方案,采用新一代CPU平台,性能提升得到大幅提升。同时,NF5280M5拥有目前业界最高的可扩展性设计,可支持24块2.5"硬盘和24条DDR4内存,并凭借优化的散热系统和模块化设计,在有限的空间内展现了高效可靠、智能高扩展特性。
提供更高效生产力的AI平台软件
AI Station是浪潮自主研发的人工智能深度学习管理系统,面向深度学习训练集群,可以支持多种深度学习框架,能够快速部署深度学习训练环境,全面管理深度学习训练任务,为深度学习用户提供高效易用的平台。
T-eye是浪潮自主研发的应用特征分析软件,主要用于分析AI应用程序在GPU集群上运行时对硬件及系统资源占用的情况,反映出应用程序的运行特征、热点及瓶颈,从而帮助用户对应用程序算法作出针对性的调整优化。
Caffe-MPI是浪潮开发的全球首款高性能MPI集群版的Caffe深度学习计算框架,在伯克利caffe架构的基础上,采用MPI技术对Caffe予以数据并行的优化,实现了多机多卡的并行计算,可部署到大规模训练平台上完成对大规模数据样本的训练。新版本的Caffe-MPI充分发挥了Nvidia最新的CUDNN性能并实现高性能扩展。
GPU17大会现场
此外,在大会期间,浪潮集团副总裁胡雷钧将做"浪潮AI端到端解决方案"的主题报告,并举行"SR-AI整机柜在深度学习上的应用与示范"、"浪潮Caffe-MPI的优化"等现场报告。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。