新CPU与RedHat OpenShift协同优化,助力打造企业混合云
中国北京,2020年8月21日——IBM(NYSE:IBM)今日发布IBM POWER中央处理器(CPU)系列的新一代产品:IBM POWER10。IBM POWER10旨在为企业提供一个满足独特的混合云计算需求的平台。该处理器采用7nm工艺,注重能效和性能。与IBM POWER9处理器相比,IBM POWER10的能效、工作负载容量和容器密度预计可提高3倍。
IBM POWER10处理器的设计历时五年之久,取得了上百种新专利及在申专利,是POWER系列发展过程中的一个重要里程碑,其创新之处包括:
IBM认知系统部总经理Stephen Leonard表示:“企业级混合云需要稳定的本地和远程架构,包括硬件和协同优化的软件。采用IBM POWER10,我们为企业混合云设计了顶级处理器,满足客户对性能和安全性的要求。我们的目标是使RedHat OpenShift成为混合云的默认选择,IBM POWER10能够将基于硬件的容器容量和安全增强功能融入IT基础设施。”
IBM POWER10是IBM第一款采用7nm工艺的商用芯片。十多年来,IBM研究院一直与三星电子有限公司开展研发合作,包括与IBM研究联盟伙伴一起打造的半导体行业首款7nm测试芯片。
基于此项技术以及对性能和效率设计的关注,IBM POWER10有望使每个插槽的处理器能效提高3倍,与IBM POWER9相比,在同等功耗下,提升工作负载容量。与基于IBM POWER9的系统相比,这种预期的容量提升可使基于IBM POWER10的服务器在混合云工作负载方面将用户、工作负载和OpenShift的容器密度提升3倍。1从而提高效率,降低成本(如空间和能源成本),同时混合云用户也可以在更小的占用空间内完成更多工作。
凭借额外的AES加密引擎,IBM POWER10可以为当前领先的加密标准以及未来加密协议(如量子安全加密和全同态加密)提供硬件内存加密,可保证端到端安全,实现更高的加密性能。
此外,为了保证更高密度容器的安全性,IBM POWER10可提供与IBM POWER10固件共同开发的新型硬件强制容器保护和隔离功能。如果一个容器被入侵,POWER10处理器可防止同一个虚拟机(VM)中的其他容器免受此类入侵的影响。
网络攻击不断演变,新发现的漏洞可能会导致业务在等待修复时出现中断。为了更好地使客户能够主动实时防御某些新的应用漏洞,IBM POWER10可为用户提供动态执行寄存器控制,这意味着用户将能设计出更具防御性的应用,将性能损失减至最小。
长期以来,在通过硬件和软件功能结合,为混合云和本地工作负载提供各种灵活部署的方面,IBM POWER一直都处于领先地位。IBM POWER10处理器旨在提高这种能力,使其能够在基于IBM POWER10的系统上以各种配置共享集群的物理内存。借助Memory Inception突破性新技术,IBM POWER10处理器允许集群中任何基于IBM POWER10处理器的服务器访问和共享彼此的内存,从而创建PB级内存集群。
Memory Inception技术可以使云供应商采用更少的服务器提供更多功能,同时使云用户租赁更少的资源来满足其IT需求,对双方来说都能节省成本,减少能耗。
随着越来越多的事务性和分析性工作流的业务应用开始采用AI技术,AI推理逐渐成为企业应用的核心。IBM POWER10处理器旨在增强核心AI推理能力,且无需额外的专用硬件。
与IBM POWER9处理器相比,IBM POWER10内置嵌入式矩阵数学加速器,使得FP32、BFloat16和INT8计算的AI推理速度分别快10倍、15倍和20倍,提高企业AI推理工作负载的性能,帮助企业采用他们训练的AI模型,并将其应用到实际工作中。凭借IBM的多种AI软件组合,IBM POWER10有望将AI工作负载融入典型的企业应用中,以从数据中收集更具影响力的洞察。
此外,随着针对RedHat OpenShift与硬件优化,IBM将打造出未来可期的混合云。三星电子将负责生产IBM POWER10处理器,将三星业界领先的半导体制造技术与IBM的CPU设计实现完美结合。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。