英特尔本周三宣布推出一种新型内存和存储技术,专门用于数据中心运营商。
英特尔表示,这款名为Intel Optane DC的永久内存旨在支持当今超大规模数据中心的海量存储需求。
为了实现这一目标,英特尔这项新技术比传统动态随机访问内存提供了每个模块更高的存储容量。基于该技术的第一批产品有三个容量点:128GB、256GB和512GB,明显大于最新DRAM模块的容量。
英特尔还暗示,Optane DC永久内存成本更低,且提供了“高容量、可接受的价位和持久性”。
英特尔副总裁、至强产品与数据中心营销总经理Lisa Spelman表示:“数据中心内的高容量永久内存让应用可以在不会因通过PCIe总线到达存储而导致延迟的情况下运行。随着开发人员逐渐适应了软件,这种新型内存旨在实现经济高效的大容量内存数据库解决方案;提供更长的系统正常运行时间,以及更快的电源周期恢复;加速虚拟机存储;为多节点分布式云应用提供更高的性能;并为内置于硬件中的永久数据提供高级加密。”
这项技术已经存在有相当长的时间了。英特尔在2016年首次提到Optane双列直插式内存模块,但未能实现首次提出的时间表。后来据Tom’s Hardware透露,英特尔正在努力满足这项技术的功耗和散热要求,不过似乎英特尔已经克服了这些挑战。
英特尔表示,新款Optane DC永久内存将在今年晚些时候发布给“精选客户”,并将于2019年全面上市。不过,开发人员将能够提前预览到该技术。英特尔表示,计划通过Builders Construction Zone提供远程早期访问,这项技术主要针对那些愿意测试这项尖端技术的客户。
英特尔表示,希望开发人员能够快速拥抱这项新技术,同时也有市场观察者对此表示认同。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“这次公布意义重大,因为这极大地加速了数据中心的工作负载,对于分析和人工智能来说,也能更快速递得到答案。这还为庞大的数据集铺平了道路,其成本远低于真正的内存,这一点在大数据分析和人工智能中至关重要。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。