8月14日,在第八届中国电子信息博览会(CITE2020)上,专注精细定制服务器厂商——宁畅信息产业(北京)有限公司(以下简称“宁畅”)展出了其搭载新一代Ampere架构A100的X640系列AI服务器。
宁畅介绍,X640服务器支持 8个NVLINK或8个双宽或16个单宽GPU,兼顾超强算力,极高存储以及强大数据交换能力,可通过硬件链路重新布局以实现灵活GPU拓扑结构,并针对不同应用场景和模型进行GPU互联优化,为用户构建高效计算平台。
除新产品发布外,宁畅副总裁魏冰清透露,随着宁畅与上下游产业链近百家伙伴企业的深入合作开展,宁畅已实现产业链“全面合作布局”,在保障按需快速交付产品外,可超前满足IT企业对服务器的更新换代需求。
宁畅产品负责人表示,X640服务器中采用的Ampere架构A100 GPU作为第三代Tensor Core核心速度更快、灵活性更高、更易于使用,服务器性能可达每秒4亿亿次,同时通过新一代NVIDIA NVSwitch技术实现GPU间P2P通信性能翻倍提升最高达600GB/S。
设计方面,X640服务器支持高强度GPU计算,均衡分布CPU与GPU处理能力,P2P模式下8个专业卡互连,优化深度学习训练效率。高密度码流处理模式下,16个推理计算核心同时接入,实现百路以上高清处理。
在GPU满足客户需求情况下,宁畅X640仍有丰富PCI-E接口用于网络和其他IO扩展,十万兆以上TCP/IP网络接入,二十万兆IB网络接入以及分布式存储,为高端计算平台提供高速传输和数据存。
最为关键的,宁畅X640服务器,可依据用户需求提供深入定制化生产服务。透过宁畅CDSPD产品开发模型,在成熟通用服务器平台基础上,提供四维一体客户定制化服务体系,降低用户AI服务器的总体拥有成本(TCO)至少10%。
对于新品X640服务器何时可交付用户,宁畅介绍已有多家知名互联网企业正将X640列入采购计划。
“宁畅与上游伙伴企业的合作非常深入,凭借自身定制能力,从用户提出批量需求到最终产品交付,通常不会超过10天。”宁畅副总裁魏冰清还透露,除与英特尔、英伟达等关键部件企业已签订基于业务、技术、市场等一系列协议外,宁畅已与近百家服务器产业链伙伴企业展开深入合作。
“对宁畅这意味着,我们已步入快速产品交付与迭代阶段。对用户,宁畅不仅能按需大批量快速交付定制化服务器产品,还可根据用户未来发展需求,超前为IT企规划产品路线,以满足用户算力以及业务的需求。魏冰清说,“具体一点说,像深圳这样拥有众多IT企业的城市,宁畅一家公司就可以满足深圳当前以及未来三年服务器产品的更新与换代需求。”
魏冰清还介绍,宁畅虽然是比较新的公司,但公司核心团队成员在行业内经验积累平均已超10年。成熟的产品架构,完善的研发、产品、测试与质量体系与平台,可使宁畅与上下游各合作伙伴实现紧密合作。“例如,要测试一款BMC管理版本的升级迭代,传统需要14天,而我们可借助自动化测试平台缩减至3天,成熟的技术优势可以使服务器的开发、迭代以及定制化工作得以高效开展。”
目前,为进一步降低定制化需求用户的总体拥有成本(TCO),宁畅推出了“尊享定制Club”计划,将为“尊享定制Club”会员提供包括产品、开发、项目、服务在内的专属服务体系。根据计划,宁畅将为铂金会员提供包括专职技术经理、新技术全开放、免费测试用机在内的千万级资源。
好文章,需要你的鼓励
当AI学会自我进化:一台能不断重写自身代码的"达尔文哥德尔机器"正在实验室诞生,它像有创造力的厨师,不仅按食谱做菜,还能发明新菜谱并改进烹饪技术——这项突破让AI首次实现真正的自主进化,编程成功率从20%跃升至50%。
HASHIRU是一个创新的多智能体系统,由加州大学戴维斯研究团队开发,采用"CEO-员工"层级结构,动态管理AI智能体团队。系统优先使用小型本地语言模型,仅在必要时调用更强大的外部API,通过经济模型控制资源分配,并能自主创建新工具扩展功能。实验表明,它在复杂推理任务上显著优于单一模型(如GSM8K:96% vs 61%),并能有效执行学术论文评审和安全评估任务,展现了更灵活、更高效的AI协作新范式。
北航团队开发的FEAT是一种全新的医疗视频生成方法,通过三大创新解决了现有技术的关键问题:引入全维度依赖关系建模同时处理空间、时间和通道信息;采用线性复杂度的注意力机制大幅提高计算效率;设计残差值引导模块提供精细的像素级引导。实验证明,FEAT小型版本仅用23%的参数就达到了最先进模型的性能,其大型版本更是在多个数据集上全面超越现有方法,为医疗视频生成开辟了新的可能性。
这项研究首次通过规模法则全面比较了CLIP和MaMMUT两种视觉-语言模型,发现虽然小规模计算下CLIP表现更优,但随着计算资源增加,MaMMUT展现更强的扩展能力。研究在多种下游任务和不同开放数据集上验证了结果一致性,并基于发现训练了高性能的openMaMMUT-L/14模型。这种通过规模曲线而非单点比较的方法避免了片面结论,为模型与数据集的系统性评估提供了新范式。