2019年9月25-27日,全球顶级科技大会——阿里云栖大会在杭州云栖小镇召开。云栖大会见证了中国互联网行业的蓬勃发展,已然成为数字经济发展的风向标。作为领先的服务器厂商,浪潮商用机器有限公司(简称:IPS)携OpenPOWER服务器新产品亮相大会,展示其推动互联网行业发展、加速创新应用落地、推动数字经济发展的硬核实力。
据研究报告显示,中国互联网行业持续快速发展,并正迈向产业融合新篇章。人工智能、物联网、云计算、大数据等先进技术正在赋能各行各业,推动传统企业转型升级,带动数字经济向纵深发展。
面向互联网行业发展的新趋势、新技术、新应用,IPS既有战略部署、技术研发,也有产品和应用的不断落地。IPS基于Power架构推出的服务器解决方案性能提升40%,同时又具备极高的性价比;IPS平台基于JDM模式,面向客户创新应用自主向上定制,提供更大的灵活性和差异化,以及全面的方案规划与售前售后支持,满足客户国产化、多样化的业务需求;基于Power体系架构优势,IPS丰富的产品平台可应对复杂应用场景,从产品到应用层有效结合,实现行业应用场景的快速落地,提升交付效率。IPS平台是大数据、分布式存储、AI/HPC等创新应用的优选平台。
随着互联网行业的深入发展,数据持续爆发式增长,在为企业提高管理效率、促进敏捷开发、提升业务决策等方面带来更多可能性的同时,也为传统存储的形式和架构带来诸多挑战。为此,IPS推出领先的分布式存储型服务器,结合POWER9多线程超强并发能力,并拥有超大存储空间。
在本次云栖大会上,IPS携标准化服务器产品FP5280G2、支持企业深度定制的高性能存储型服务器FP5466G2、及面向企业数据密集型关键业务及私有云应用场景的服务器K1 Power S924亮相,为业界展示了面向互联网行业发展、极具性能优势的Power架构平台。
FP5280G2为模块化设计,通过不同的前I/O和后I/O模块的组合,可支撑面向AI、面向搜索引擎、面向大数据分析的计算和存储结合的平台。FP5466G2分布式存储型服务器结合了POWER9多线程超强并发能力,具有超大存储空间,实现了2倍线程数量的提升,在大并发场景,与x86平台相比,性能提升70%,非常适合大数据和AI多用户高并发存储访问。K1 Power S924服务器,面向企业数据密集型关键业务及私有云应用场景,横向扩展,向云而生,是创新应用的优选平台。
随着数字时代的进一步发展,企业面临越来越多创新业务的挑战,如何将海量的数据与云相结合,实现真正云化?只有通过构建开放、融合的多云架构,建立开放融合的生态系统,全产业紧密配合,面向多样化个性化的用户需求,提供整体解决方案,才能使企业的创新应用真正落地。
面对以上行业面临的种种挑战,顺应多云架构发展趋势,IPS以打造开放、灵活、融合的多云架构为核心宗旨,创新升级自主研发设计,支持定制化,为客户提供开放、灵活、融合的多云架构;以开放、灵活的Power架构为承载,帮助企业实现多个公有云、私有云的统一管理,助力企业多云发展路线,帮助企业释放关键潜能。
今年的云栖大会以“数·智”为主题,在前沿科技、技术产品、产业应用等领域均有重量级发布。据统计,大会各类论坛中技术性分享比重达九成,演讲嘉宾也囊括诸多国内外大学教授、科学家等知名学者,明显传达出了向技术回归的趋势。回归技术,包括IPS在内企业的技术研发能力和实力至关重要。
未来,受人工智能、云计算等新一代IT技术驱动,互联网行业将持续深入发展,数字经济也将成为引领全球经济增长的重要引擎之一。IPS将继续通过提供强大性能的硬件产品、计算技术,以及开放、融合的多云架构,打造融合的产业生态,加速行业创新,为数字经济的发展推波助澜。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。