至顶网服务器频道 08月09日 新闻消息:NVMe存储正在成为一种在密度与速度方面远超其它存储介质类型的解决方案。也正因为如此,思科公司UCS首席技术官Raghunath Nambiar才认为NVMe未来将扮演容量层这一角色。
在上周于悉尼接受采访时,Nambiar解释称“就目前而言,人们主要从性能的角度看待NVMe; 但真正的游戏规则改变将体现在容量层面。”
Nambiar指出,2.5英寸SSD将很快达到7 TB容量级别,但“NVMe则将在未来18个月当中达到32 TB容量水平。”这样的存储密度意味着即使是像UCS B200这样的小型思科半宽服务器,也完全能够实现每服务器64 TB数据存储容量。其它刀片机架或架构无疑将拥有更为可观的容量规模。
Nambiar表示,企业将能够把这些数据用于更为密集的即时分析处理。
他提到,“目前美国开始广泛了解消费者的购买模式”,并借此构建起强大的推荐引擎。他同时补充称,消费者可能需要在利用自动柜员机或者在线零售商店时忍耐大约一秒的滞后,但企业则可在这短短的一秒之内交付分析信息。
他指出,“目前,这类分析记录约为100条; 在未来六个月内,记录数量将达到1000条。”在他看来,不久之后企业即会利用这种分析手段提供成千上万条记录,借以提升交叉销售能力或者改善客户满意度。
作为回应,数据中心运营商则需要做好准备以立足现有机架托管更多数据。Nambiard表示,100G以太网也将很快成为决定企业成败的重要支柱。通过提升数据吞吐量来实现向外扩展——而非依赖于新型CPU、GPU、FPGA以及网络——也将变得至关重要。
Nambiar解释称,思科公司将规划多种方式为客户提供帮助,其中包括立足大数据与分析验证新型工作负载设计,并借此强化其整体架构。但他提醒称,“这并不属于即插即用型方案。要想充分利用这些功能,大家需要深入思考且直接面向数据管理平台。”
最近推出的Starship服务器自动化平台与得到进一步强化的UCS Director将抢先一步在这方面作出尝试。Nambiar指出,思科公司的目标在于确保UCS能够在机架与堆栈构建完成后立即可供客户使用,且其操作系统与应用程序能够自动安装,并根据预期工作负载进行自主优化。
他解释称,“我们将根据自身最佳实践实现这种‘可调节性’。”
Nambiar总结道,“服务器即将成为运行应用程序的平台,而硬件本身的重要程度越来越低——与之对应,管理层才是真正的核心所在。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。