近期,第三批制造业单项冠军企业和单项冠军产品名单公布,浪潮凭借多节点云服务器业务入选。根据Gartner数据,浪潮是全球最大的多节点服务器提供商,2018年前三季度浪潮多节点服务器全球第一。
多节点云服务器伴随云计算变革出现,专为云计算和大型云数据中心部署要求所设计,是一种创新的服务器形态,又称为云服务器。多节点云服务器在快速发展的过程中不断优化,其计算、存储、网络、供电、散热等功能单元高度模块化、资源化,部署密度、能效等技术指标以及Capex、Opex等经济指标都远远高于传统服务器。
近年来,电子商务、移动社交、互联网金融等创新互联网经济高速发展,在中国整体GDP中占比超过30%,这一切的背后是云计算、大数据、移动互联网、智能终端、物联网等新一代变革性信息技术的快速普及应用,而这些创新应用都运行在多节点云服务器上。
目前,Google、微软、腾讯等全球市值Super7互联网公司代表了全球云计算、智慧仓储物流、互联网金融、电子商务等新技术的最高发展水平,这些公司也是多节点云服务器主要采购商。
伴随着云计算变革向政府、制造业、电信、能源等传统行业普及,多节点云服务器也开始应用到这些传统领域,例如中国移动、12306以及各地政府云数据中心等都采用了多节点云服务器。
企业进入多节点云服务器领域,面临的挑战不仅是技术创新,还有运营模式的创新,因为传统服务器是标准化的,而多节点云服务器是定制化,需要从研发、生产、交付、服务等全业务环节的全面创新。多节点云服务器根据十分具体的实际应用需求和云数据中心部署环境需求研发设计,有着特定的用途,例如CDN服务器、视频服务器等,因而多节点云服务器的发展推动着产业从标准化时代向定制化时代转变。
浪潮是最早进入多节点云服务器领域的企业,经过多年的积累,浪潮形成了独有的JDM(联合开发,Joint Design Manufacture)业务模式。这种模式以浪潮与用户产业链的融合为基础,提供从需求、研发、生产、交付、服务等全业务链条的定制化服务。
这种业务模式的突出特点是——快速研发、快速供货和快速交付,目前,浪潮一款新品的研发周期从1.5年压缩到9个月,最短周期可以缩短到3个月,远超过业界一般水平。在供货方面,浪潮已经建立敏捷供应链系统,大多数订单浪潮都可以做到“OTD≤7”(Order to Delivery),就是在收到订单后7天现场交付。在交付层面,近期浪潮向百度交付了最新一批整机柜服务器,涉及节点超过1万台,交付过程仅耗时8小时,相当于每2.88秒1台服务器,刷新了业界服务器交付最高速度。
近年来,云服务器由于出现时间短,还没有形成统一的标准。全球三大开放计算组织ODCC、OCP、OPEN19都旨在推动云服务器的标准化、产业化。不同标准的云服务器开始在开放计算产业的引导下相互融合。浪潮是多节点云服务器全球第一供应商,也是全球开放计算生态的重要力量。作为三大全球开放计算组织的共同成员,浪潮在ODCC成立过程中发挥了重要作用。浪潮开发了ODCC第一代多节点云服务器SR,该产品的多项技术被写入了ODCC多节点云服务器标准中。
自云计算变革以来,超大规模数据中心的高速发展给浪潮带来了超越的机会。目前,浪潮服务器已经是中国第一、全球前三,增速保持全球第一。据了解,浪潮在进一步加快全球化布局,业务覆盖了117个国家和地区,8个全球研发中心、6个全球生产中心以及2个全球服务中心,在美国、欧洲、日本等区域市场增长十分迅速。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。