人类的起源是什么?气候变化会给地球生物带来什么样的影响?久治不愈的疑难杂症到底由什么引起?曾几何时,为破解这一个个终极谜题,人类在地球上进行了许多相关实验,但都收效甚微。
但如今,一台拥有强大AI性能的超级计算机,或许能够助我们一臂之力。
随着算力与国民经济的关系越发紧密,每1美元的算力投入,就可以带动10美元的产值提升。衡量一个国家是否强盛,科技是否发达的方式,也正在变成算力,以及其背后新计算产业链的角逐。《泛在算力:智能社会的基石》中提到,到2030年,人类仅在人工智能这一项所需要的算力支撑,相当于近1,600亿颗高性能NUP所能提供的算力。而如果将物联网、区块链和AR/VR等智能化技术相加,这一数字将达到33,900EFLOPS。
AI让超算有“智”可为
2019年,当一台强大的超级计算机出现在麻省理工学院林肯实验室超级计算中心(LLSC)的那一刻起,它便开始为麻省理工学院的各类研究领域赋予强劲的AI能力。麻省理工学院的任何人都可以向该系统提出工作需求,利用TX-GAIA的超强算力,为天气预报、医疗数据分析、自动化系统、合成DNA设计,以及新材料和设备等领域的创新研究提供重要支持。
这台新型超级计算机名为TX-GAIA (Green AI Accelerator,意为绿色AI加速器),融合了高性能计算和AI能力,以HPE Apollo 2000系统为基础,搭载英特尔® 至强® 可扩展处理器,可支持建模、模拟等工作负载,以及复杂的深度神经网络(DNN)等机器学习训练。
“业界对于可扩展性能的需求非常急迫,我们需要训练更多的AI来推动科学和工程领域发展,为各行业带来突破。”HPE副总裁兼高性能计算和AI业务总经理Bill Mannel表示,“我们与MIT林肯实验室超算中心持续合作,促进高性能计算技术和AI研发的进步,创造了全新体验。”
“在MIT林肯实验室超算中心,我们的使命就是发展计算密集型科学、工程和医学,以解决至关重要的技术难题。” MIT林肯实验室超算中心(LLSC)负责人及创始人Jeremy Kepner说,“HPE是高性能计算的领导者,通过与HPE合作,我们提高了在超级计算机中运行新兴AI工作负载的技术能力,加速创新。
AI遇算力 让超算性能一触即发
AI的赋能让TX-GAIA有“智”可为,这其中离不开HPE Apollo 2000系统奠定的基础。HPE Apollo 2000是HPE专为高性能计算业务打造而成的。作为英特尔的战略合作伙伴,HPE一直以来与英特尔紧密合作,在算力供给侧更好地满足各组织的业务需求,通过全面的计算产品以及创新服务,帮助用户构建更好的高性能计算基础,解锁更先进的技术。毋庸置疑,搭载HPE Apollo 2000系统的服务器中也不难发现英特尔的身影。
立足英特尔® 至强® 可扩展处理器的最新特性,持续创新出专为高性能计算业务打造HPE Apollo系统,可帮助用户满足日益复杂的多样化的工作负载需求,实现业务创新。搭载英特尔® 至强® 可扩展处理器的HPE Apollo 2000 Gen 10 Plus还支持包括英特尔Advanced Vector Extensions 512(英特尔 AVX-512)、英特尔Speed Select Technology(英特尔SST)等技术,并通过平台内置的英特尔深度学习加速能力运行复杂人工智能工作负载。
按图索骥,TX-GAIA的强大之处不仅体现在AI更关乎于算力。在这个加速变革的世界,各行各业都在经历智能化的变革,而迎接这个智能化时代的最好方式就是打造出更高性能的算力。
超强的计算能力的背后是千万个处理单元在同时运作,而这便是英特尔® 至强® 可扩展处理器赋予的澎湃动力。作为一款集成人工智能加速及硬件增强型安全功能的数据中心级CPU,英特尔® 至强® 可扩展处理器在处理各种人工智能工作负载时较上一代产品有着更高的性能。
全新英特尔® 至强® 可扩展处理器在性能、安全性和运营控制领域,足以满足在人工智能、复杂的图像或视频分析,以及整合边缘工作负载等方面的要求。
该处理器家族有着令人赞叹的性能,集成了可加快数据分析的人工智能加速技术,可处理更多图像和视频流,并能在边缘物联网部署中提供更强大的人工智能。
在英特尔® 至强® 可扩展处理器的加持下,TX-GAIA已经实现了惊人的每秒4.725千万亿次浮点运算。
好文章,需要你的鼓励
微软高级软件工程师Alice Vinogradova将自己用SAP ABAP语言编写的向量数据库ZVDB移植到了搭载Z80处理器的经典计算机Sinclair ZX Spectrum上。她发现ABAP(1983年)和Z80(1976年)几乎是同时代产物,都诞生于内存珍贵、每个字节都很重要的计算时代。通过应用Z80优化技术,尽管时钟频率相差857倍,但代码运行速度仅慢3-6倍。她认为这些老式优化技术具有普遍适用性,在现代硬件上依然有效。
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
韩国电子巨头三星宣布收购美国西雅图数字健康技术公司Xealth,进一步扩大在健康领域的布局。Xealth专注于帮助医疗专业人员将数字健康技术整合到日常实践中,与70多家数字健康技术供应商合作,应用覆盖美国500多家医院。此次收购将推动三星向连接医疗保健平台转型,结合其在传感器技术和可穿戴设备方面的优势,完善Samsung Health平台功能。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。