Power10 CPU是当前业界最高端的通用处理器,旨在为用户提供满足未来计算需求的平台,树立了企业级计算的新标杆。Power10处理器是使用7nm制程技术构建的商业化处理器,相比POWER9处理器,在能源效率、工作负载容量和容器密度等方面预计可提高3倍。
Power10处理器作为POWER架构系列服务器产品中的最新一代中央处理器产品,多项创新技术备受关注,开放的内存接口、超高的内存带宽,更低的最低延时,Power10进一步突破“内存墙”限制,树立了高端处理器的新标杆。
单核并行八线程 能效容量双重提高
Power10处理器在制造工艺上采用了先进的7nm工艺,是第一款采用7nm工艺的商用芯片,已获得及在申请的专利多达上百件。Power10处理器内部最多可集成15个核心,所有核心均支持SMT8,即每个内核支持并行八线程,单芯片最高可提供120线程。此外,每个核心的L2缓存为2MB,每处理器L3缓存为120MB,且采用了低延时的NUCA缓存管理技术。
在封装技术方面,由于采用了先进的7nm工艺,核心面积相比POWER9处理器变得更小,仅为602mm²,但集成了多达180亿个晶体管,每插槽支持单芯和双芯两种封装形式,18层金属层叠走线远超现行工业标准,其中低层金属走线负责内电路互联,高层金属走线则负责供电分布、时钟和片外的信号互联,能够更好地保证芯片的RAS特性。
基于对性能和效率设计的关注,Power10有望使每个插槽的处理器能效提高3倍,与POWER9相比,在同等功耗下,提升工作负载容量。相比搭载POWER9处理器的服务器产品相比,这种预期的容量提升能够使基于Power10的系统在工作负载方面和容器密度方面提升3倍,这将会影响多个数据中心属性,从而提高效率,降低成本(如空间成本、能耗成本等)。
在指令集方面,Power10处理器通过先进的增强处理器核心架构和内置的嵌入式矩阵数学加速器(Matrix Math Accelerator),使得每个插槽基于FP32、BFloat16和INT8计算的AI推理速度相比POWER9处理器分别快10倍、15倍和20倍,从而提高AI推理工作负载性能并融入商业应用,实现更快速的洞察。
PB级内存集群 为多种应用负载部署提供灵活性
突破性的PowerAXON技术,打破了单台服务器的内存边界,为用户的内存密集型工作负载带来了硬件集成的内存调用机会;并简化了SaaS层的管理,使得用户能够更专注于其应用负载及业务创新。
Power10处理器通过各种配置在基于Power10的系统上提供池化或集群化物理内存的能力,增强了此功能。借助Memory Inception突破性新技术,Power10处理器允许集群中任何基于Power10处理器的服务器访问和共享彼此的内存,从而创建PB级内存集群,为海量内存敏感型应用提供高性价比平台。
开放的内存接口及高I/O带宽 应对更丰富的应用场景
在I/O方面,Power10集成了一套名为开放内存接口(Open Memory Interface)的内存控制器,可支持GDDR系、DDR系和SCM类的内存模块,灵活度更高,应对更广泛的内存应用场景。其中,对DDR的支持做到了最新的DDR5内存,这套接口最高可以提供1TB/s的超高带宽,每插槽理论峰值带宽最高可达410 GB/秒。
另外,由于Power10采用了新晶体管的新核心,能够让系统内存实现更高的传输带,支持PCIe 5.0总线,PCIe带宽相比PCIe 4.0有了2~4倍的提升。Power10处理器集成了PowerAXON接口,独特的高速信号互联技术可提供高达1TB/s的信号连接,其中16个插槽之间通过SMP互联,内存、I/O连接至OpenCAPI接口,并可集成相邻服务器系统内存形成内存集群。
构建面向未来的行业云
一直以来,POWER是支持云和本地工作负载灵活部署的先进计算平台。在中国市场,基于Power10的优势,浪潮商用机器将专注于行业云,通过联合行业合作伙伴推动公有云中国的落地,在云环境中为用户提供“三高一强”的使用体验的同时,降低用户的整体应用成本。
在中国市场,浪潮K1 Power服务器作为自主研发的浪潮服务器家族高端高价值系列,充分释放高价值算力,是面向关键核心应用的,具有高可靠性、高性能、高安全和数据强实时一致性的“三高一强”特性的算力保障,广泛应用于银行、证券、电信、医疗、政府等行业,帮助用户轻松应对创新业务增长与应用负载带来的挑战,是关键应用的高可靠和高性能的安全平台。
未来,浪潮商用机器基于Power10打造的性能卓越、安全可靠的高端服务器及整体解决方案将于2022年下半年上市,以全方位升级的Power10持续满足用户持续增长的关键核心应用和智慧敏捷需求,敬请期待。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。