近日,宁畅信息产业(北京)有限公司(以下简称“宁畅”)宣布中标知名互联网公司2020年H2集采招标项目,项目总标的超6000万元。
基于宁畅人工智能X640服务器、机架R420服务器所定制的多款服务器中标。截至10月,宁畅已中标的互联网权威用户涵盖搜索、视频、云计算等诸多行业。
宁畅表示,此次中标标志宁畅产品和服务得到互联网头部用户认可。为满足搜索平台用户复杂、多变的应用场景需求,以及严苛数据中心准入标准,宁畅提供BMC、BIOS、外观以及硬件配置等深定制服务超100余项,并以“套餐”形式呈现,让用户便利选型、适配产品。
据悉,宁畅是集研发、生产、部署、运维于一体的服务器厂商,可结合用户需求,提供基于x86架构通用机架、人工智能、多节点、边缘计算及全生命周期定制等类型服务器及IT基础设施产品。
“定制套餐”降低用户TCO
据宁畅工程师介绍,为满足互联网权威用户的服务器定制化需求,除提供BMC、BIOS配置等深定制服务外。宁畅依托完善的产品、技术、工程以及研发平台,针对用户公有云、私有云、搜索、人工智能等应用场景,提供了数十款服务器“定制套餐”。
“这些‘定制套餐’均符合用户的数据中心配置标准,用户只需选定所需套餐后下单,最大程度降低用户选型与适配成本。”宁畅工程师介绍,“定制套餐”可有效降低用户TCO(总体拥有成本)10%以上。
而为实现套餐产品的“快速交付”,宁畅构建了业内领先的自动化测试平台,具有500台机群测试能力,质量测试模型超过5000项,自动化测试率达99.8%。除“定制服务”能力过硬,通用产品的优异架构,也是宁畅此次能中标互联网权威用户的有力保障。
宁畅R420系列服务器,采用2U双路结构设计,不仅为用户提供强劲算力,还可提供IntelDCPMM、NVMe存储扩展,以及OCP网络扩展,依托QAT、VNNI等多种计算技术,以适配不同业务场景需求,具有超高性价比。
图说:宁畅机架式服务器R420
宁畅X640系列服务器,支持高强度GPU计算,均衡分布CPU与GPU处理能力,P2P 模式下8 个专业卡互连,优化深度学习训练效率。高密度码流处理模式下,16 个推理计算核心同时接入,实现百路以上高清处理。
图说:宁畅人工智能服务器X640
在GPU满足用户需求情况下,宁畅X640仍有丰富PCI-E接口用于网络和其他 IO 扩展,十万兆以上 TCP/IP 网络接入,二十万兆 IB 网络接入以及分布式存储,为高端计算平台提供高速传输和数据存储。
超百页标准考验厂商“真实力”
宁畅工程师介绍,为互联网头部用户提供定制化服务器实施数据中心,有极高的技术门槛,在行业内有能力提供此类服务的厂商屈指可数。“用户的标准手册多达上百页,逐页逐行落实这些标准,并能在短时间内交付这些产品,考验的是厂商对底层硬件的理解。”宁畅工程师表示。
早在宁畅公司创立之前,宁畅核心团队成员已为此次中标搜索用户提供上万计算节点的整机柜服务器产品,并曾参与ODCC(开放数据中心委员会)“整机柜服务器技术规范”以及“边缘计算服务器”等标准制定中,长期的技术积累使互联网头部用户认可宁畅产品。
开启“普惠”定制时代
受采购数量、精力等限制,除互联网头部公司外能享受服务器“真定制”服务的用户较少。为满足市场对定制化服务器需求,宁畅正凭借全面研发平台,以及上下游产业链的“深入合作”,将定制化服务器的行业数量门槛从目前超10万台降到1万台及以下,开启“普惠”定制时代。
在产业链方面,宁畅除与英特尔、英伟达等关键部件企业已签订一系列合作协议外,随着与上下游产业链近百家伙伴企业深入合作,宁畅可超前满足IT企业对服务器的更新换代需求。
而为便于更多行业用户享受到“普惠定制”服务,宁畅已推出了“尊享定制Club”计划,将为“尊享定制Club”会员提供包括产品经理、开发经理、项目经理、服务经理在内的专属服务体系,铂金会员可享专职技术经理、新技术全开放、免费测试用机在内的千万级资源。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。