万物竞长的6月,是多少莘莘学子,12年寒窗苦读,迎来人生第一个转折的关键时刻。2016年的6月,对于华为关键业务服务器来说,却是丰收获誉的季节,各类荣誉接踵而至:多种Benchmark测试获得9项第一,继15年再获Interop金奖,关键业务服务器发货增长率全球第一……华为关键业务服务器交了一份满意的答卷,非状元头衔莫属。
6月英特尔在北京召开Intel® Xeon® E7 v4处理器发布会,对外宣布Intel® Xeon® E7 v4处理器创造了27项新的世界记录,其中8项世界记录由华为关键业务服务器贡献,占据总量的三分之一。同日,华为发布升级支持Intel® Xeon® E7 v4处理器的关键业务服务器。
图一:Intel宣布搭载Xeon® E7 v4处理器的服务器再创世界纪录
华为关键业务服务器基于SPECCPU 2006、SPECjbb 2015和Vmmark标准测试,所有项目测试结果值与业界同期同等服务器相比均第一。测试结果如下:
|
|
SPECCPU2006 |
SPECjbb 2015 |
VMark |
||
|
服务器型号 |
Rate-int |
Rate-fp |
MAX-jops |
Critical-jops |
|
|
RH5885H V3 (4路服务器) |
3610 |
2450 |
217248 |
120306 |
61@50tiles |
|
RH8100 V3 (8路服务器) |
7070 |
4740 |
411801 |
213248 |
|
表一:各类Benchmark测试值力压群雄
上述9项Benchmark测试值,其中4项SPECCPU 2006测试值和4项SPECjbb 2015测试值包含在Intel® Xeon® E7 v4处理器发布会27项性能标杆之中。
SPECCPU 2006是SPEC组织推出的一套CPU子系统性能评估测试标准,SPEC CPU结果值可以更全面、准确反映服务器的强大的计算能力,尤其是ERP、CRM、数据库等各种应用下的处理效率。
SPECjbb 2015评估Java业务应用最佳性能,直观的反应系统环境的可扩展性和最大持续的吞吐能,以及在指定响应时间内的吞吐能力。
Vmmark测试标准反映服务器在虚拟化场景的性能指标,用来衡量被测试服务器在支持虚拟化业务时的综合性能指标。这里的“61@50tiles”,表示一台RH5885H V3服务器,划成50个tile,每个tile包含8个虚拟机,相对于一台RH5885H V3服务器按照50*8=400个虚拟机划分,VMark成绩为61。
基于上述三项标准测试,每一项测试结果值,均超越同期同等服务器产品的性能,华为关键服务器领跑各项性能指标,再次彰显华为服务器是企业关键业务值得信赖的服务器产品。
图二:英特尔官网公布新的性能世界纪录之一
Interop已经被业界公认为获取最新IT趋势和最前沿技术发展的高效平台,Interop的评奖对产品的质量和设计有着极其严格的要求和评判标准。KunLun开放架 构小型机获得Interop东京展Best of Show Award金奖,充分说明业界专家对华为服务器产品高品质认可,标志着华为服务器在关键业务计算领域处于领先地位,引领计算的创新发展。
图三:KunLun服务器获Interop 2016年金奖
图四:载誉满满的华为关键业务服务器家族
华为服务器以用户为中心,坚持持续创新,走开放架构、合作共赢路线,向客户提供可靠、高效、简单的计算平台和解决方案,助力企业应对数字经济时代的挑战,构建领先优势。
2016年5月,华为服务器位居Gartner挑战者象限。华为服务器已服务全球150多个国家5000多家客户。根据Gartner报告,2015年华为关键业务服务器发货量增长率全球第一。华为关键业务服务器自推出以来,凭借其拥有的高性能、高可靠、易维护等优势,受到广大客户的青睐,已规模应用在政府、金融、企业、能源、交通、运营商等行业的ERP、CRM、数据分析等关键业务上。
更多SPEC测试值请查阅www.spec.org官网。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。