日前,在百度顺义数据中心,浪潮向百度交付了最新一批整机柜服务器,涉及节点超过1万台,交付过程为8小时,相当于每2.88秒1台服务器,刷新了业界服务器交付最高速度。以此计算,浪潮整机柜服务交付能力已经达到30000节点/日。
百度顺义数据中心2018年建成使用,可容纳数十万台服务器,核心承载百度云、AI等发展最快的新兴业务。以百度云为例,2018年用户数和合作伙伴数增长 3 倍,流量增长5 倍,收入则增长了4倍。互联网公司的业务不仅成长快,而且具有很大的不可预测性,常常会出现超出预料的超高访问量,所以互联网公司,尤其是TIE1互联网公司都在大力提高各自的基础架构快速弹性扩展能力,一方面采用云计算等技术手段,另一方面改进流程,强化数据中心供应链,提高服务器等数据中心设备的部署效率。
浪潮是百度核心的计算方案提供商,双方能够不断创造服务器部署最快速度,是多年来在技术、业务链等多个领域持续创新的结果。在技术层面,双方在2012年开始共同研制整机柜服务器,来替代传统的机架式服务器,将交付最小单元从单台服务器提到配置10-40个节点的整机柜服务器。
与此同时改变传统服务器的交付模式,据悉浪潮对百度数据中心的交付模式已提高到L11级别,交付效率最大提高到20倍以上。而且整机柜服务器的组装、调试、强弱电布线等现场部署工序前移到工程流水线完成,进一步简化现场交付的技术复杂度。
快速交付能力依托浪潮敏捷高效的供应链创新管理,而不仅是技术创新,生产、运输、质保等各个业务环节都在不断创新改造,例如整机柜服务器需要整体运输,高度2.1米、最大重量1.2吨,在运输过程中容易产生形变,造成质量问题,浪潮为此整合物联网、移动互联等技术开发路谱测试方案,对每条货运线路进行提前测试,并且在每台产品上配置智能终端,能够对运输途中的情况进行实时记录监测。
经过多年的改造重构,浪潮已经建立敏捷供应链系统,尤其是智能生产基地的投产,在业内第一个实现服务器的大规模定制化生产,有效缩短订单交付周期。浪潮智能生产基地统一整合了柔性生产、智能技术和物联网技术,整个工厂采用了600多个RFID、2000多个传感器、50个设备控制器以及330多套智能设备,部署了ERP、MES、WMS等6大智能信息系统。目前,大多数订单浪潮都可以做到“OTD≤ 7”(Order to Delivery),就是在收到订单后7天现场交付,大型订单不超过14天,此次百度的订单交付周期为11天。
作为业务链“最后一公里”,浪潮的现场交付能力也在不断提高。浪潮已经具有专业的交付工程师团队、标准化实施交付流程、配套自动化工具以及可视化实施过程管理系统,能够实现现场全流程流水化交付。此次百度交付,一台整机柜交付耗时不超过2分钟。
互联网公司的需求非常复杂,不仅追求效率上的“快”,更强调在应用个性化满足的无缝对接和快速实现上,这种需求源于不同的互联网公司业务的高度差异化。进行产品技术创新以及业务链敏捷化改造,正是浪潮业务模式创新的核心,在服务互联网用户的过程中,浪潮步步探索适合智慧计算时代的运营模式,形成了独特的JDM (Joint Design Manufacture)模式,JDM是以厂商与用户业务链融合为基础的敏捷商业模式,浪潮和用户的合作贯穿产品全生命周期,实现从需求端、研发端、采购端、品控端、生产端、交付和服务端的全面对接。在这种模式下,浪潮不仅可以实现已有产品的快速交付,更可以实现从需求确立、研发、生产,一直到服务等全流程、对接客户个性需求的快速交付。
目前,浪潮服务器一款新品的研发周期从1.5年压缩到9个月,客户提出需求最快可以3个月交付样机。而且,浪潮更深入的参与到用户的业务中,可以更好地把握用户需求,提高供应链管理效率,例如2018年浪潮联合百度供应链建立滚动预测机制,实现供需平衡运营管理,整体到货周期的大幅缩短。
目前,浪潮是全球三大服务器供应商之一,增速全球最快。互联网是全球服务器市场增长的主要动力,浪潮JDM模式获得了互联网公司的普遍认可,全球TOP10互联网公司中有5家大规模采购浪潮服务器,尤其在中国市场,浪潮连续多年保持市场份额第一,IDC显示,2018年Q3,浪潮在中国互联网行业的份额为47.8%,远远领先于其他厂商。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。