美国当地时间3月8日,在圣克拉拉举行的OCP (Open Computing Project)Summit 2017上, 浪潮发布了符合OCP标准的整机柜服务器OR系列。这些产品将从今年下半年起,陆续向客户供货。
OCP是由facebook发起的、致力于推动开放硬件技术标准,推进数据中心创新的全球性组织,成员包括google、微软、Intel等46家全球性IT企业以及互联网运营商,对于IT技术和应用的发展趋势有着重要的影响力。浪潮是OCP的铂金级别会员。
浪潮发布的整机柜服务器OR 1.0高度为42 OU,集成了供电、散热、管理以及网络模块,是一款面向超大规模数据中心的模块化解决方案。现场展示了2 OU 3 Nodes的节点,采用最新的Intel Purley平台,最大支持2颗处理器,16DIMMs,支持内置M.2存储设备。另外,这些节点也支持NVMe SSD、FPGA等扩展卡。
【右图为浪潮在美发布基于OCP标准的浪潮整机柜OR1.0】
从ODCC到OCP 互联网优势助推浪潮全球化
浪潮不仅是OCP的铂金会员,也是中国开放数据中心ODCC组织的主要会员。同OCP一样,ODCC也是致力于重构数据中心,探索和发展面向未来的数据中心方案。浪潮一直在ODDC的标准开发和制定扮演了重要角色,尤其是标准的产品化和产业化方面,2016年底,ODCC发布了“天蝎整机柜技术规范V2.5”,增加了PCI-E交换机和SAS交换机两项标准,在新标准发布的同时,浪潮就推出了相应产品并且在中国最大的两个互联网运营商中实现了批量应用。
浪潮能够在ODCC领域反应灵敏,不仅因为对于相关标准的及时跟进,也源于浪潮敏捷的运营体系,以及针对互联网行业的全程定制化模式。浪潮不仅为用户提供定制化的产品,而是提供从研发、生产开始,直至现场实施、售后服务,整个业务流程的定制化服务,从用户提出,到研发、生产、供货交付,整个周期最短仅需3个月。
目前,浪潮在ODCC相关领域已经占有明显的市场优势,ODCC整机柜服务器领域累计出货超过10万节点,市场占有率70%以上,被百度、阿里巴巴大规模采用,几乎是整机柜服务器的代名词。伴随浪潮加入OCP,不断加深对OCP组织的了解,以及各项技术和标准工作的参与,浪潮也将逐步打开美国以及全球互联网运营商的大门,实现互联网成功经验的全球化复制,此次OCP产品的发布仅是一个开始。据透露,浪潮还在开发另外2款OCP产品,其中一款为针对存储应用的高密度存储设备,另一款是符合微软Olympus规范的高性能服务器,具有强大的计算和内存扩展能力,专为公有云承载内存计算等企业级应用所设计。
【浪潮展位现场】
浪潮是领先的数据中心产品、方案和服务供应商,重构数据中心是浪潮重要的技术和业务战略。为此,浪潮开发了各类下一代基础架构方案、模块化数据中心方案,构成了新的产品线——融合架构产品。
浪潮融合架构沿着“Server as a Computer、Rack as a Computer、MDC as a Computer”三个阶段在不断演变,目前主要三类产品,SR、OR是面向互联网运营商的公有云业务,还有面向私有云应用的整机柜服务器IncloudRack,该产品可以支持两路、四路和八路节点混插,具有企业级的RAS特性,最后是一款是刀片系统I9000,专门面向中小规模的私有云应用场景。
目前,浪潮业务正在进行快速的全球化拓展,伴随着这一进程,浪潮融合架构产品也将开始服务全球用户,融合架构与定制化模式结合成为推动业务全球化重要动力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。