NVIDIA发布了一款端到端超大规模数据中心平台,该平台让Web服务公司能够为其浩繁的机器学习工作量加速。
NVIDIA超大规模加速器系列产品包含两款加速器。研究人员想要利用人工智能(AI)来为越来越多的应用提供处理动力,其中一款加速器让研究人员能够为这些应用中的每一个应用更快地开发和设计新的深度神经网络。另一款加速器是一款低功耗加速器,旨在将这些网络部署于整个数据中心。该系列加速器还包含一套GPU加速的库。
所有这些加在一起,让开发者能够在超大规模数据中心内利用强大的Tesla加速计算平台来驱动机器学习,打造史无前例且基于人工智能的应用。
这些全新的硬件与软件产品经过专门设计,可为竞相融入人工智能功能的海量Web应用加速。机器学习领域中的开创性进步让人们能够利用人工智能技术来打造更智能的应用与服务。
NVIDIA联合创始人兼首席执行官黄仁勋表示,人工智能竞赛正在进行。无论是从 PC、互联网还是从云计算的角度而言,机器学习都无疑是当今计算行业最重要的进展之一。它正在消费者云服务、汽车以及医疗等行业中掀起革命。机器学习对我们这代人来说是一大计算挑战。我们创造了Tesla超大规模加速器系列产品来使机器学习的速度提升10倍。这为数据中心节省了大量时间和成本。
点评:凭借NVIDIA在GPU加速计算方面的雄厚实力,其在人工智能和数据中心市场的表现非常值得期待。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。