2020年9月15日至16日,ODCC(开发数据中心委员会) 2020峰会在北京召开。宁畅信息产业(北京)有限公司(以下简称“宁畅”)副总裁及首席技术官赵雷,受邀在服务器分论坛做“精细化定制服务助数据中心快速交付”主题报告。
赵雷介绍,为满足市场对定制化服务器产品需求,宁畅正开启服务普惠定制时代,将定制化服务器的行业数量门槛从目前的超10万台降到1万台及以下。为快速生产出“真”定制化的服务器产品,宁畅已有三大研发平台、20余项核心技术,以及自动化测试、智能工厂等全面技术储备。
ODCC 2020服务器分论坛上,赵雷介绍,对于数据中心,更多公司显示出对密度、扩展性、运维便捷以及供电和节能等系统性要求,因此定制化服务器所占市场份额正不断提升。
例如,ODCC项目中的很多服务器其整体交付模式都是定制化的整机柜,叉车直接将整机柜搬运到数据中心,接电联网便可使用,交付速度提升10倍。
但从整个行业来看,能享受服务器定制化服务的,还是以ODCC核心会员,包括互联网以及电信运营商为主的大企业用户。目前这些企业在定制服务器业务上使用了至少三代产品,所以整个体系、流程非常成熟,业务满足度也非常好。
对于中小型企业,定制化服务器需求虽然没有大企业高但依然存在,且相对来讲他们的定制满足度比传统的大型企业差,这也是类似宁畅专注定制化服务器生产厂商的机遇。
宁畅公司创立不久,专注于做定制化以及精细化服务器模型,我们的理念是开启普惠定制篇章,为数字经济定制引擎。宁畅希望在行业里把定制化服务器的数量门槛从10万台或者更多维度降低到1万台乃至更少,这可让过去没资源享受定制便捷化的客户,也享受服务器定制化服务。
但要支持整个这一套服务,就得有对应的产品全生命周期的开发体系,包括需求管理、技术管理、设计管理、产品管理等,把这些都做的好,才能实现服务器产品的高品质定制化。
赵雷介绍,服务器定制化需要很高技术门槛,具有以定制化方式实施各种数据中心项目的公司并不多。以宁畅来说需要三大技术平台,20余项核心技术的支持,才可真正实现服务器产品按需定制化,并结合智能制造模式,才可完成产品的更迭。
在具体定制服务器产品开发中,为保证产品交付质量与速度。有别与传统ODM、OEM所说的管理体系,宁畅以CDSPD研发平台为基础,快速落地定制产品。该平台研发流程通俗分为四个阶段:第一阶段:需求阶段。主要是分析用户痛点、落地产品需求,设置开发流程。第二阶段:架构设计阶段。定制化服务器架构设计阶段要求比传统、标准服务器高很多,因此架构设计决定了最终产品对用户痛点、核心诉求的支撑,并满足要高效、节约成本,并可快速交付。第三阶段:迭代开发测试阶段。跟传统模式比较,宁畅定制产品迭代测试最快是一晚,最慢3-4晚完成。第四阶段:维护与服务阶段。包括升级、协助运维服务等。
测试在定制服务器生产中是非常重要的环节,宁畅公司具有500台机群测试能力,质量测试模型超过5000项,自动化测试率达99.8%。只有通过自动化测试技术,才能降低对人力的需求,以维持公司业务快速增长。
此外,自动化测试还包括100%在线数据分析系统,包括BMC、智能网卡等测试数据,通过宁畅在线数据分析收集系统集中,再配合大数据分析系统,可自动定位问题点并给出初步分析。这样的话在维护阶段只需3天便可完成软件升级版本的迭代验证。
在宁畅自动化工厂中,大部分产线已采用机器人装配,做自动化工站不是为了降低成本,更多是要改善制造品质,如人工与机器同时转配内存,我们发现机器安装内存错误率明显下降。
赵雷最后表示,宁畅虽然是家新公司,但成长速度非常快,4月已成为SPEC正式会员,几乎是服务器行业中企业创立后最快进入SPEC组织的公司;5月宁畅拿到了多项产品认证;6月产品突破8项SPEC CPU测试记录;9月通过微软、VMWare等操作系统认证。
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
SEALQA是维吉尼亚理工大学研究团队开发的新型基准测试,旨在评估搜索增强型语言模型在面对矛盾、嘈杂或无用搜索结果时的推理能力。它包含三种测试:SEAL-0(极具挑战性的核心问题集)、SEAL-HARD(更广泛的困难问题集)和LONGSEAL(测试长上下文多文档推理)。研究发现,即使是前沿模型在这些测试中表现也很差,增加测试时计算资源往往不能带来可靠的性能提升,高级推理模型对嘈杂搜索结果特别敏感,模型在识别大量干扰文档中的相关信息时仍然困难重重。
这篇论文提出了"计划与预算"框架,解决大型语言模型在推理任务中的效率问题。研究者发现模型存在"推理失调"现象——简单问题上过度思考,复杂问题上思考不足。他们开发了贝叶斯预算分配模型(BBAM)作为理论基础,将推理分解为子问题并根据不确定性分配计算资源。实验表明,该方法在不同任务上显著提高推理效率,令牌使用减少39%,E?指标提升187.5%,且能使小型模型达到大型模型的效率水平。