超大规模分析数据仓库供应商 Ocient 正与 AMD 展开合作,采用其第四代 EPYC CPU,使处理能力提升了 3.5 倍,内存吞吐量提高了一倍以上。
Ocient 提供一个大规模并行关系数据库系统,能够分析 PB 级数据,意味着可以在几秒到几分钟内处理数万亿行数据。Ocient 超大规模数据仓库 (OHDW) 采用计算邻接存储架构 (CASA),消除网络瓶颈并实现快速数据访问。其 Megalane 技术的特点是"通过启用极大数量的并行任务"来提高吞吐量。数据可靠性则由纠删码技术提供保障。
CEO Chris Gladwin 表示:"AI 和计算密集型数据分析工作负载正在给全球数据中心带来巨大压力,这意味着硬件和软件带来的效率对企业数据增长、性能和成本至关重要。我们很高兴能与 AMD 合作,以提升客户数据性能、节省成本,并提高运营和能源效率。"
Ocient 的超大规模数据仓库在处理器要求方面已经支持 Intel 和 AMD 两种 CPU。现在 AMD 成为了首选。
该公司告诉我们:"他们选择了配备 96 个实际核心的 AMD 9654,而不是前代 28 核心的 Intel Icelake 6348。增加的核心数量,加上提高的全核心时钟速度,带来了性能的提升。不仅如此,在 AMD 平台上,每个节点的成本、空间和功耗都相似,这使得 Ocient 能够在更小的系统占用空间内提供领先的性能解决方案,并且具有最具成本效益的功耗要求。"
Ocient 基于核心的许可模式优先考虑成本效益和计算密集型工作负载的性能。通过使用 AMD CPU,Ocient 表示其客户将获得:
- 计算密集型工作负载性能提升 3 倍 - 通过改进的功率和能源效率降低运营成本,每核心功耗降低 3 倍 - 为未来的 AI 和分析需求提供持续的可扩展性
该公司表示,由于 AI 和数据分析需求的增加,预计到 2026 年全球数据中心能源消耗将增加一倍以上,企业越来越需要寻找降低能源消耗的方法。转向 AMD 将有助于解决这个问题。
AMD 战略业务发展公司副总裁 Kumaran Siva 表示:"我们很高兴能与 Ocient 合作,将 AMD EPYC 处理器的性能与 Ocient 高效的软件解决方案相结合,使企业能够更轻松、高效地处理最具挑战性的 AI 和分析工作负载。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。