2018年10月16日,曙光对外发布了全球首款闭式循环一体液冷八路服务器——I980-G30。自产品发布以来,市场反响空前热烈,接连中标海关、中科院等重点项目。
近期又传来捷报:I980-G30在SPEC CPU 2017基准测试中,创下Rates_FP、Rates_FP_Base、Rates_INT、Rates_INT_Base四项世界纪录。
据了解,SPEC CPU 2017是SPEC组织推出的一套CPU子系统测试工具,涵盖4大种类共43个测试,包括测试整型速度、浮点运算速度的性能测试SPECspeed 2017、SPECspeed 2017 Floating Point以及测试整型并发速率和浮点并发速率的SPECrate 2017 Integer和SPECrate 2017 Floating Point。SPEC CPU 2017的测试结果可以全面、准确反映服务器的整体运行性能,尤其是各种应用场景下的实际系统性能。
此次I980-G30在关键服务器基准测试中的骄人表现,更向业界证明了曙光在中国关键应用服务器市场的绝对领先地位。
近年来,随着金融、电信、石油、电力等传统行业信息化建设的继续深化,云计算、虚拟化、大数据、商业分析等应用迅速成为行业信息化的热点。在这种情况下,私有云成为政府、企事业单位的“新宠”,多路服务器搭配大数据系统的整合方案备受青睐,高性能、低能耗、易管理性、高扩展性、低成本等特性成为新的关注点。
为了适应日新月异的市场环境、满足更加复杂的客户业务需求,曙光I980-G30液冷八路服务器应运而生,其可靠性堪比小型机,具有更高级别的性能、可靠性、可扩展性以及可管理性,是大型数据库、商业智能分析、ERP等关键业务的理想选择。
曙光天阔I980-G30服务器可搭载新一代英特尔志强铂金可扩展处理器,单节点高达224个物理处理器核心,12TB内存容量,提供卓越的计算能力和扩展能力。
I980-G30长期稳定工作温度范围提升至5℃~45℃,符合数据中心ASHRAE Class A4标准;多项RAS技术、关键部件全冗余设计,使系统可靠性达到了99.999%以上。
在满足用户对系统高性能需求之外,I980-G30在扩容和功能扩展上也具有极其出色的表现。I980-G30拥有强大的存储扩展能力,支持24块前置热插拔SFF SAS/SATA硬盘。并且拥有卓越的I/O扩展能力,最大可支持24个PCIe设备扩展接口,并基于OCP标准规范开发,可全面兼容1G/10G/25G等多种管理网络子卡,提供灵活的配置选择以应对不同用户的需求特点。
此外,I980-G30选用更加通用的C13-C14供电接口设计,并匹配全新升级的N+N/N+M铂金供电单元,冗余量相较上一代提升50%。
I980-G30搭载全新升级的自主研发可触摸式液晶监控系统,可实时显示服务器资产信息、部件信息及管理日志,部件级动态监控工作状态及故障诊断功能,通过可视化界面显示、查询及配置服务器管理参数,全面实现高效运维。
并且整机采用800mm标准结构模块化设计,全系统完全摆脱传统线缆连接方式,满足IEC297标准的通用机柜适配及快速部署需求。
作为国内IT信息技术领域领先企业,曙光将继续加强关键领域科技创新与核心技术突破,致力于研发更加高品质的高端服务器产品,为各行业数字化转型提供有力IT服务支撑。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。