NVIDIA发布了一款端到端超大规模数据中心平台,该平台让Web服务公司能够为其浩繁的机器学习工作量加速。
NVIDIA超大规模加速器系列产品包含两款加速器。研究人员想要利用人工智能(AI)来为越来越多的应用提供处理动力,其中一款加速器让研究人员能够为这些应用中的每一个应用更快地开发和设计新的深度神经网络。另一款加速器是一款低功耗加速器,旨在将这些网络部署于整个数据中心。该系列加速器还包含一套GPU加速的库。
所有这些加在一起,让开发者能够在超大规模数据中心内利用强大的Tesla加速计算平台来驱动机器学习,打造史无前例且基于人工智能的应用。
这些全新的硬件与软件产品经过专门设计,可为竞相融入人工智能功能的海量Web应用加速。机器学习领域中的开创性进步让人们能够利用人工智能技术来打造更智能的应用与服务。
NVIDIA联合创始人兼首席执行官黄仁勋表示,人工智能竞赛正在进行。无论是从 PC、互联网还是从云计算的角度而言,机器学习都无疑是当今计算行业最重要的进展之一。它正在消费者云服务、汽车以及医疗等行业中掀起革命。机器学习对我们这代人来说是一大计算挑战。我们创造了Tesla超大规模加速器系列产品来使机器学习的速度提升10倍。这为数据中心节省了大量时间和成本。
点评:凭借NVIDIA在GPU加速计算方面的雄厚实力,其在人工智能和数据中心市场的表现非常值得期待。
好文章,需要你的鼓励
过去两年里,API 作为 5G 货币化新载体的步伐虽然缓慢,但一直在加速,特别是 GSMA 的开放网关计划和 Linux 基金会的 CAMARA 项目促进了网络 API 的行业标准化。爱立信在一份声明中表示,新公司将遵循 Open Gateway和CAMARA确立的原则和共识。
数据湖这个词在21世纪10年代初出现的时候,有些人认为它是在恰当的时间出现的一种恰当的架构。数据湖是一种非结构化的数据存储库,利用了新的低成本云对象存储格式(如Amazon S3),可以容纳来自网络的大量数据。
CIO越来越多地开始以更清晰的商业价值为重点审查生成式AI项目,特别是关注生成式AI技术的成本及其潜在优势。