2017年春节刚过,朋友圈的小伙伴还停留在晒出行、晒美食的氛围中。可华为关键业务服务器,再次打破SPEC测试性能世界纪录,递交了一份满意的开年答卷。还记得去年6月,华为关键业务服务器打破9项世界性能记录,关键业务服务器发货增长率领跑全球……成绩优异,但华为服务器团队没有傲娇,继续撸起袖子,埋头苦干。
2017年2月7日英特尔在Global CES大会上,发布Intel® Xeon® E7 v4 8894处理器,同时宣布该处理器打破多项世界世界性能记录,其中2项世界记录由华为4P+关键业务服务器贡献。至2016年6月华为4P+关键业务服务器打破9项性能测试世界纪录,不到半年时间,再创两项世界记录,深刻的体现华为服务器人的工匠精神。
英特尔官网公布华为4P+服务器新的性能测试世界纪录
华为4P+关键业务务服务器搭载Intel® Xeon® E7 v4 8894处理器,基于SPECCPU 2006标准测试,所有项目测试结果值与业界同期同等服务器相比均第一。测试结果如下:
|
SPECCPU2006 |
|
服务器型号 |
Rate-int |
Rate-fp |
5885H V3 |
3800 |
2460 |
SPEC CPU2006 Benchmark测试值打破世界记录
SPECCPU 2006是SPEC组织推出的一套CPU子系统性能评估测试标准,SPEC CPU结果值可以更全面、准确反映服务器的强大的计算能力,尤其是ERP、CRM、数据库等各种应用下的处理效率。其中SPECint_rate_2006 基准测试的目的,主要衡量服务器在多处理器工作时整点计算能力和编译器优化能力。测试结果主要反映服务器整体的计算、吞吐量、缓存的性能及编译器的优化能力;另一个SPECfp_rate_2006 基准测试主要是衡量服务器在多处理器的浮点计算能力和编译器优化能力. 测试结果 主要反映服务器的浮点计算、缓存性能及编译器优化能力。这些值越高越能体现服务器在处理数据库事务处理、高性能计算的能力,为企业选择一款高性能的服务器提供参考。
华为4P+关键业务服务器是针对企业大型数据库、虚拟化、ERP、大数据实时分析等关键业务所设计的高性能路服务器。本次打破性能测试世界纪录的5885H V3支持英特尔至强E7 v4系列处理器。它最高支持96个计算核心,高达96个内存插槽,满足企业业务性能扩展要求。华为4P+关键业务服务器除了具备高性能外,还具备多项优势:
1、支持NVMe SSD盘,可用于高速缓存和数据块高速读写的应用,提升数据存储性能。特别是在SAP HANA应用中,可提升数据入库3倍的性能;
2、支持TCM(或者TPM)加密接口,用户可灵活配置TCM加密模块,使关键业务应用更加安全;
3、支持RAID带外管理,灵活查询和设置RAID配置信息及状态,实现对硬盘的精确管理和配置,支持在线配置RAID信息,使管理更方便;
4、提供FDM2.0故障诊断功能,支持实时的智能故障分析,精确定位硬件故障,大幅提高产品可靠性;
华为服务器以用户为中心,坚持持续创新,走开放架构、合作共赢路线,向客户提供可靠、高效、简单的计算平台和解决方案,助力企业应对数字经济时代的挑战,构建领先优势。
根据Gartner的统计数据*,截至2016年第3季度,华为服务器出货量排名全球前三(不含塔式),增长率全球第一,4路关键业务服务器发货量及发货量增长率全球第一。华为服务器已服务于全球超过5000家客户,涵盖政府及公共事业、互联网、电信、能源、金融、交通、医疗、教育、媒资、制造等行业。
更多SPEC测试值请查阅www.spec.org官网。
*数据来源:Gartner“Market Share: Servers, Worldwide, 3Q16 Update”,2016年11月28日
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。