美国当地时间3月8日,在圣克拉拉举行的OCP (Open Computing Project)Summit 2017上, 浪潮发布了符合OCP标准的整机柜服务器OR系列。这些产品将从今年下半年起,陆续向客户供货。
OCP是由facebook发起的、致力于推动开放硬件技术标准,推进数据中心创新的全球性组织,成员包括google、微软、Intel等46家全球性IT企业以及互联网运营商,对于IT技术和应用的发展趋势有着重要的影响力。浪潮是OCP的铂金级别会员。
浪潮发布的整机柜服务器OR 1.0高度为42 OU,集成了供电、散热、管理以及网络模块,是一款面向超大规模数据中心的模块化解决方案。现场展示了2 OU 3 Nodes的节点,采用最新的Intel Purley平台,最大支持2颗处理器,16DIMMs,支持内置M.2存储设备。另外,这些节点也支持NVMe SSD、FPGA等扩展卡。
【右图为浪潮在美发布基于OCP标准的浪潮整机柜OR1.0】
从ODCC到OCP 互联网优势助推浪潮全球化
浪潮不仅是OCP的铂金会员,也是中国开放数据中心ODCC组织的主要会员。同OCP一样,ODCC也是致力于重构数据中心,探索和发展面向未来的数据中心方案。浪潮一直在ODDC的标准开发和制定扮演了重要角色,尤其是标准的产品化和产业化方面,2016年底,ODCC发布了“天蝎整机柜技术规范V2.5”,增加了PCI-E交换机和SAS交换机两项标准,在新标准发布的同时,浪潮就推出了相应产品并且在中国最大的两个互联网运营商中实现了批量应用。
浪潮能够在ODCC领域反应灵敏,不仅因为对于相关标准的及时跟进,也源于浪潮敏捷的运营体系,以及针对互联网行业的全程定制化模式。浪潮不仅为用户提供定制化的产品,而是提供从研发、生产开始,直至现场实施、售后服务,整个业务流程的定制化服务,从用户提出,到研发、生产、供货交付,整个周期最短仅需3个月。
目前,浪潮在ODCC相关领域已经占有明显的市场优势,ODCC整机柜服务器领域累计出货超过10万节点,市场占有率70%以上,被百度、阿里巴巴大规模采用,几乎是整机柜服务器的代名词。伴随浪潮加入OCP,不断加深对OCP组织的了解,以及各项技术和标准工作的参与,浪潮也将逐步打开美国以及全球互联网运营商的大门,实现互联网成功经验的全球化复制,此次OCP产品的发布仅是一个开始。据透露,浪潮还在开发另外2款OCP产品,其中一款为针对存储应用的高密度存储设备,另一款是符合微软Olympus规范的高性能服务器,具有强大的计算和内存扩展能力,专为公有云承载内存计算等企业级应用所设计。
【浪潮展位现场】
浪潮是领先的数据中心产品、方案和服务供应商,重构数据中心是浪潮重要的技术和业务战略。为此,浪潮开发了各类下一代基础架构方案、模块化数据中心方案,构成了新的产品线——融合架构产品。
浪潮融合架构沿着“Server as a Computer、Rack as a Computer、MDC as a Computer”三个阶段在不断演变,目前主要三类产品,SR、OR是面向互联网运营商的公有云业务,还有面向私有云应用的整机柜服务器IncloudRack,该产品可以支持两路、四路和八路节点混插,具有企业级的RAS特性,最后是一款是刀片系统I9000,专门面向中小规模的私有云应用场景。
目前,浪潮业务正在进行快速的全球化拓展,伴随着这一进程,浪潮融合架构产品也将开始服务全球用户,融合架构与定制化模式结合成为推动业务全球化重要动力。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。