今天AMD揭开了MI100的神秘面纱,这是一款用于超级计算机的GPU,号称是同类产品中速度最快的芯片,峰值性能超过10teraflops。

超级计算机通常用于运行科学研究相关工作负载例如天气预报模型和物理模拟,以前超级计算机主要是使用CPU搭建的。
但是,由于研究人员在科学计算中越来越多地使用机器学习,因此如今新型超级计算机也经常大量采用GPU,这个趋势也进一步推动了市场对AMD MI100等芯片的需求不断增长。
MI100芯片基于7纳米制程工艺,在处理FP64数据时的最高性能可以达到11.5teraflops。(FP64是双精度浮点格式的简写,是一种科学计算中经常使用的数据单元,很适合表示较大的数字)。
而当数据单元较小的时候,MI100也可以提供更高的速度。例如对于FP32数据来说,AMD预计在某些情况下峰值性能可以达到46.1teraflops。
MI100芯片令人印象深刻的性能表现,一部分要归功于封装中采用的Matrix Core技术。据AMD称,这是一种针对AI优化的专用计算引擎,可以将神经网络处理数据的速度提高近7倍。
AMD GPU的基本架构是流处理器,其作用类似于CPU的核心。MI100附带了7680个此类流处理器,这些流处理器被整合成为120个较大计算单元,成为芯片的一个组成部分,此外支持32GB内存,MI100利用这些内存来存储正在处理中的数据以加快访问速度。
一台超级计算机是由多台服务器组成的,每台服务器内部都可以配置多个GPU,具体要取决于对性能的要求。为了支持采用GPU的超算客户,MI100集成了一项名为Infinity Fabric的技术,可以将多达4个GPU链接在一起,形成所谓的蜂巢。在这种配置下的MI100芯片可以更快地相互共享数据,从而更快地执行计算,因为Infinity Fabric所提供的峰值带宽是通常用于芯片间连接的PCIe 4.0技术的2倍。
AMD推出MI100芯片正值超级计算机相关的支出不断增加的时候,全球各国都在构建新一代“百亿级”超级计算机,性能超过每秒10亿次操作,是当今最快系统所能实现的速度的若干倍。AMD已经拿下了多个订单,为即将上线的百亿亿次运算系统提供芯片,此次推出MI100,未来还将会给AMD带来更多的订单合同。
AMD对于MI100性能的大胆公布,可能意味着在这个重要的市场中,Nvidia将面临更多竞争。上个月,Nvidia刚刚宣布已经被选为欧洲四套全新超级计算机系统的GPU提供商,其中的一套系统甚至有望成为全球性能最强大的AI超级计算机。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
NVIDIA研究团队开发的OmniVinci是一个突破性的多模态AI模型,能够同时理解视觉、听觉和文本信息。该模型仅使用0.2万亿训练样本就超越了使用1.2万亿样本的现有模型,在多模态理解测试中领先19.05分。OmniVinci采用三项核心技术实现感官信息协同,并在机器人导航、医疗诊断、体育分析等多个实际应用场景中展现出专业级能力,代表着AI向真正智能化发展的重要进步。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
Salesforce研究团队发布BLIP3o-NEXT,这是一个创新的图像生成模型,采用自回归+扩散的双重架构设计。该模型首次成功将强化学习应用于图像生成,在多物体组合和文字渲染方面表现优异。尽管只有30亿参数,但在GenEval测试中获得0.91高分,超越多个大型竞争对手。研究团队承诺完全开源所有技术细节。