至顶网服务器频道 03月28日 新闻消息: 美国加利福尼亚州当地时间3月27日,浪潮在GTC 2018上宣布其领先的AI服务器AGX-2将支持NVIDIA最新的Volta架构,配置32GB内存的NVIDIA Tesla V100 GPU加速器,其内存容量比现有产品实现了翻倍。
浪潮参加GTC 2018大会
AGX-2 AI服务器支持在2U空间中8颗采用下一代NVLink 高速互联技术的GPU加速计算。搭载8颗配置32G HBM2高速缓存Tesla V100 GPU的AGX-2在AI训练上实现了计算性能的进一步提升。新产品在模型训练的Batch_Size(批尺寸)设置拥有更大的弹性空间,有效解决深度学习线下训练中存在的内存限制问题,更好应对大数据集或高清图像文件的处理瓶颈,帮助计算性能提升可高达40%以上。同时,AGX-2具备拓扑的灵活性可支持NVIDIA NVLink和PCIe两种GPU互联方案,采用NVIDIA NVLink时可提供GPU间高带宽低延迟互联,以及高达300GB/s的吞吐量。
浪潮集团副总裁胡雷钧表示:"浪潮拥有业界最全的AI计算服务器产品线,覆盖从单机4卡到64卡集群的不同AI计算平台。我们希望能够第一时间将全球领先的AI计算技术交付到全球用户手中,帮助他们更好应对人工智能算法快速迭代与数据爆炸式增长带来的巨大挑战,推动人工智能技术重构行业。"
浪潮是全球领先的AI计算厂商,通过打造多样化的创新硬件平台、管理调度与分析平台和深度学习框架的"平台组合",实现"前端承接多源数据、后端支撑智能应用",致力于为人工智能提供领先计算力,促进AI重构行业。目前,浪潮已为百度、阿里巴巴、腾讯等全球领先的人工智能与云计算公司提供完整的计算平台产品,并正在通过创新设计为美国公司提供领先的计算设备。
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。