4月9日,HPE计算新品发布会在北京成功举办。来自业界权威机构、重点行业媒体、产业链上下游合作伙伴等相关领域专家出席本次会议,共同见证了全新HPE ProLiant Compute Gen12服务器的正式发布,新品在性能、能效及可靠性等方面实现了全面突破,借助智能化管理及可持续发展设计,为企业在AI、边缘计算以及混合云等应用场景中释放更大价值。
慧与(中国)有限公司智能计算与人工智能事业部总经理黄强在会上发表开场致辞与主题演讲。他表示:“HPE计算有着悠久历史,而HPE ProLiant系列服务器则是其中浓墨重彩的一笔,二十余年来收获了全球各行业客户的青睐和支持。今天发布的HPE ProLiant Compute Gen12系列服务器是基于经典的跨越式创新,不仅在性能、能效和可靠性上实现全面突破,更通过智能化管理和可持续发展设计,为企业提供面向未来的计算解决方案,帮助企业在AI、边缘计算和混合云领域实现应用价值,加速数字化转型步伐。”
英特尔中国首席云架构师许渊受邀出席发布会,共同见证HPE计算新品发布。继去年9月重磅推出英特尔®至强®6900性能核处理器后,英特尔进一步扩充至强6产品家族,以更丰富的产品组合、卓越性能与出色能效,应对覆盖数据中心、网络及边缘多个领域的广泛工作负载需求。
HPE计算新世代:为混合世界提供智算动力
在数字化与智能化深度融合的当下,企业对计算基础设施的需求日趋多元,服务器产品正处于智能重构的战略机遇窗口。IDC数据显示,全球服务器市场规模已突破千亿美元,且预计在未来五年保持约8%的年均增长。然而伴随AI技术持续演进、边缘计算加速部署以及混合云架构的广泛运用,企业在构建IT基础设施时,愈加关注服务器在算力性能、能源效率和极致可靠等方面的综合表现。HPE ProLiant Compute Gen12服务器通过对性能、能效及可靠性的全面升级,为企业打造灵活可持续的智能计算平台,支撑日益复杂的业务场景与数字战略。
极致可靠-全生命周期的安全防护
HPE ProLiant Compute Gen12集成多层防护机制,实现了从芯片到云端,从服务器出厂至退役的全生命周期防护,赋予用户极致可靠的安全防护能力。新世代采用最新版高级服务器管理软件HPE iLO7(HPE Integrated Lights Out 7), 实现多层级防护。凭借新增的安全隔离区(secure enclave)以及独家设计使用的专用处理器,可为用户提供高可信、防篡改的计算环境,帮助企业在未来面对新型威胁时保障数据极致可靠。
能效优化-打造高效算力底座
HPE ProLiant Compute Gen12搭载英特尔®至强®6处理器,性能和能效全面优化,相比前代产品每瓦性能提升高达41%,每年节省电力高达65%,实现了相当于7台 HPE ProLiant Gen10服务器的能效表现,可有效支撑AI、数据分析、边缘计算、混合云和虚拟桌面基础设施 (VDI) 等多样化工作负载需求。为满足高密度部署需求,进而支持企业的可持续计划,新世代采用了HPE直接液冷(DLC)技术,能够帮助服务器在高负载、高密度部署场景下保持系统稳定、持续释放性能。这一技术源自HPE在液冷领域五十余年的深厚积淀,更兼300多项专利支持,且经过了全球最快的E级超算验证,将为企业带来更高的能源利用效率,同时降低总拥有成本(TCO)。
智能自驱-能源与管理效率双提升
为了实现更高效的资源调度与能源利用,HPE ProLiant Compute Gen12升级全新“全局视图”功能,支持多供应商混合部署场景下的统一可视化管理,助力快速识别系统的潜在风险,平均每年可减少高达4.8小时的计划外停机时间,提升业务连续性。同时,HPE还提供独立评估工具HPE Power Advisor,帮助企业在采购前预测不同配置下的能源消耗与碳排放表现,辅助客户实现绿色计算目标,平衡IT投资与可持续发展战略。
在新一轮智能化浪潮推动下,服务器不仅是算力平台,更成为企业实现数字化、低碳化和运营保障的关键基石。HPE ProLiant Compute Gen12系列服务器凭借性能、能效、可靠性与管理等多维度创新突破,为企业在AI、边缘计算与混合云等复杂场景中提供有力支撑,助力实现更高效的算力利用、更灵活的部署策略以及更稳健的业务连续性,加速智能化能力落地与全球业务拓展。面向未来,HPE将持续依托算力、能效与可靠性的技术积淀,叠加全球化交付与本地化支持能力,携手客户构建高韧性、强可控的基础设施,加速释放业务创新潜能与可持续增长动能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。