
ZD至顶网服务器频道 10月26日 新闻消息(文/邹大斌): 10月25日,曙光公司在北京举行产品发布会,正式推出中科曙光StackCube超融合云计算一体机(以下简称“曙光超融合一体机”),为满足用户关键业务上云需求提供一体化方案。
超融合已经成为数据中心领域的一个新的亮点,特别是在当下服务器市场增长乏力的背景下,服务器厂商更是对此给予厚望。根据Gartner最近公布的2016年第二季度的数据,全球服务器市场增长2%,除亚太与东欧之外的其余所有地区均出现下滑。与此同时,超融合市场被普遍看好,IDC预测,超融合架构系统在2018年的市占率将达16%,Gartner则认为到2018年将有40%的中小型企业会用超融合系统代替单独的“服务器和存储”,并预测到2019年超融合形态将占据集成系统35%的份额。
实际上,市场上大多数的主流服务器厂商都有自己的超融合产品,比如,戴尔、HPE、联想、华为、浪潮等主流的服务器厂商。所不同的是,大家采用了不同的技术路线。比如HPE是完全基于自由技术,戴尔是与Nutanix合作,联想则既有基于自有技术的产品也有与Nutanix等公司合作的产品。
曙光选择的是与VMware合作,采用的VMware的VSAN,这背后的原因自然与曙光公司与VMware之间的紧密合作关系有关。曙光公司副总裁沙超群介绍说,曙光超融合一体机采用“虚拟化软件+内核级软件定义存储软件+通用X86硬件”的架构,其中内核级软件定义存储软件VMware VSAN不仅是业界最稳定的分布式存储,其性能表现同样不俗。
沙超群特别强调了曙光的超融合一体机是“内核级别的”。沙超群解释说,是因为VSAN与vSphere的结合是内核级,因此其效率更好,性能更好。
据了解,StackCube最大可支持4U空间400TB本地存储的超高存储密度,是传统机架服务器的2倍。2015年,VMware和曙光曾采用业界认可的SwingBench压力测试工具对VSAN进行测试。测试逼真地模拟电商业务中常见的4种交易,按500并发用户加压,VSAN以普通的四台服务器的配置获得了12592 TPS的优异性能与18块SSD的全闪存外置磁盘阵列相当。VSAN无疑具有更高的性价比。
“小型数据中心只需要配置一套4节点超融合一体机即可以满足需求。”沙超群说,一套曙光超融合一体机在混合读写模式下,每台每秒进行读写操作的次数(IOPS)达100000次,显示了优越的磁盘性能。更重要的是,曙光超融合一体机的高IOPS均是在超低存储延迟条件下实现的:关键业务丝毫不受影响。
发布会上,“高可用性”也是曙光强调的一个亮点。沙超群介绍说,为了免去用户部署应用的后顾之忧,曙光超融合一体机在稳定性方面下足了功夫,从软件层面、硬件层面到逻辑层面乃至数据中心层面均精心设计,以应对发生在IT基础设施上的各种故障和灾难,用超高可用性护航用户的关键业务。
曙光超融合一体机拥有虚拟机容错(FT)、HA、vMotion、VDP功能,可获得级别更高的可用性和数据保护,确保业务连续性。在Virtual SAN环境下,曙光超融合一体机的数据多副本存储策略和数据纠删码容错机制,可保证即便发生硬件故障(磁盘、主机、网络、机架损坏等),也不会造成数据丢失或停机。曙光超融合一体机制定了灵活的备份策略,数据可从超融合一体机在线迁移至备份一体机,且用户业务不受影响;在数据中心层面,超融合一体机支持Virtual SAN可扩展集群,拥有跨站点容灾支持。
此外,稳定可靠的VMware VSAN能够与vSphere的其他功能紧密集成,如vMotion、HA等,也将确保一体机计算层和存储层高度可用。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。