6月6日,英特尔至强6能效核处理器随着全新的品牌更新,一并在国内发布。
相较于此前第五代至强可扩展处理器的命名而言,此次品牌更新后,第六代英特尔至强处理器的产品名称被直接命名为英特尔至强6处理器,名称更加简洁。
更重要的是,英特尔此次在至强6系列产品中,首次采用了纯能效核(E核)设计,针对高密度、可扩展的工作负载进行了一次重量级优化。
在节能减碳、可持续发展日益成为全球关键命题时,这样的芯片设计为云计算、数据中心带来了一个全新的方案。
针对这次品牌焕新,英特尔公司全球副总裁兼首席市场营销官Brett Hannath也特别来到发布会现场,他指出,英特尔至强处理器新的品牌主张聚焦四个方面:性能、能效、质量、安全。
随之而来的英特尔至强6处理器系列产品,也成了这一价值主张最好的解释。
中国云计算产业在过去十年里得到了突飞猛进的发展,如今中国的云计算厂商,不少在全球范围内已经博得了一席之地。
伴随着云计算产业的发展,作为能耗大户的数据中心,在过去几年里在能耗领域面临着越来越大的挑战。
英特尔英特尔市场营销集团副总裁兼中国区总经理王稚聪在英特尔至强6能效核处理器新品发布会上给出了这样一组数据:
中国数据中心在2014年到2022年这几年时间里,总能耗已经从372亿千瓦时增长到了2700亿千瓦时,预计到2025年会进一步增长到4000千瓦时。
一个对比数据是,作为世界上最大规模的水电站,三峡水电站每年发电量有1000亿千瓦时。
这就意味着,到2025年,全国数据中心一年将会消耗掉三峡水电站四年的发电量。
与此同时,节能降碳、绿色可持续发展正在成为全球经济发展的主色调,数据中心自然也成了节能降碳的主要关注对象。
2021年7月,在工信部发布的《新型数据中心发展三年行动计划(2021-2023年)》中就明确指出,到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。
强调绿色高效、节能减碳,也就成了英特尔至强6能效核处理器为中国云计算产业带来的一个强力解决方案。
关于此次英特尔至强处理器品牌全新升级,英特尔公司全球副总裁兼首席市场营销官Brett Hannath专程来到中国,出席了本次发布会。
Brett Hannath在发布会上同样强调了能效,他指出英特尔至强焕新,要以性能、能效、质量、安全重塑品牌新形象,缔造创新体验。
具体而言,全新的英特尔至强6处理器分为性能核和能效核。
其中,性能核在通用平台基础和共享软件栈的基础上,针对计算密集型和人工智能任务所需的高性能进行了优化,而性能核则是针对高核心密度和规模扩展任务所需要的高效能进行了优化。
此次英特尔在发布会上正式对外发布的是英特尔至强6能效核处理器6700E,该处理器采用Intel 3制程工艺,拥有144个核心,为高密度、横向扩展工作负载带来性能与能效的双重提升。
英特尔至强6能效核处理器具有显著的密度优势,对于有产品迭代需求的用户来说,可以3:1的比例进行旧系统替换和机架整合。
在媒体转码工作负载上,与第二代英特尔至强处理器相比,英特尔至强6能效核处理器拥有高达4.2倍的机架性能提升和高达2.6倍的每瓦性能提升。
这样的英特尔至强6能效核处理器,也已经被金山云、浪潮信息、南大通用、记忆科技等英特尔合作伙伴应用到了服务器、数据库等产品中。
随着英特尔至强6能效核处理器的发布,这些产品也将陆续进入中国市场,为中国云产业提质增效提供助力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。