近日,英特尔宣布原始设备制造商(OEM)在其服务器系列中采用了英特尔现场可编程门阵列(FPGA)加速。这是可重新编程芯片的首次重要使用,旨在加速现代数据中心中的主流应用。英特尔FPGA可为新型数据中心奠定坚实基础,凭借出色的多功能性和速度可支持处理从数据分析到金融服务的各种工作负载。
由于数据正呈指数级增长,数据中心运营商需要保持大规模性能需求和运营效率之间的平衡。为了提升性能与功效,数据中心正采用英特尔至强可扩展处理器,并配合使用加速器,以满足工作负载中特定功能的数据密集型性能要求。
借助英特尔FPGA,我们的原始设备制造商客户在基于英特尔至强可扩展处理器的全新服务器中提供了卓越的加速器驱动性能和运营效率。作为领先的原始设备制造商,戴尔EMC和富士通将在各自的产品中集成完整的英特尔硬件与软件堆栈,包括采用Arria 10 GX FPGA的英特尔可编程加速卡和面向包含FPGA的英特尔至强可扩展处理器的英特尔加速堆栈。
富士通公司执行官兼数据中心平台业务部门负责人Kenichi Sakai表示:“我们很荣幸与英特尔携手合作,为我们的客户打造高性能数据中心。我们开始在PRIMERGY服务器中部署采用Arria 10 GX FPGA的英特尔可编程加速卡,以吸引重要客户。FPGA加速优势能帮助运营商摆脱运营支出的限制,同时实现出色的可扩展性、性能和适应性。”
集成英特尔FPGA加速的戴尔EMC PowerEdge R640、R740和R740XD服务器目前可以进行大规模部署,未来更多服务器将支持这一功能。
英特尔可编程解决方案事业部营销副总裁Reynette Au表示:“随着戴尔EMC和富士通将强大、灵活的英特尔FPGA整合至主流服务器产品,我们即将迎来数据中心计算的新时代。我们为客户和合作伙伴提供了硬件性能优势,支持他们在软件开发环境中大规模创建丰富的高性能解决方案。”
例如,英特尔合作伙伴 Levyx(一家大数据基础设施领域的高性能数据处理软件提供商)为金融机构构建了一款基于英特尔FPGA的回溯测试解决方案。
Levyx业务发展高级副总裁Matt Meinel表示:“金融建模是一个对性能极为敏感的大数据课题。相比传统的Spark实施,借助英特尔PAC和加速堆栈,我们的架构师和软件开发人员的算法执行速度和期权计算速度分别提高了八倍和两倍。”
支持FPGA加速的服务器具有卓越的可用性,这是英特尔可编程芯片快速发展进程中的又一座里程碑。加速堆栈提供了一种软件开发环境,确保庞大的开发人员社区能够受益于FPGA的卓越性能和灵活性。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。