试想一下,不用部署设备,通过更改 CPU 密集型刀片服务器与存储密集型容量节点的比例就能优化系统,这样的硬件系统够不够 “硬”?为了支持全球架构最完整的超融合,思科搬出哪些够“硬”的服务器?
目前只有思科能够打造出具有自我感知和自我集成能力的系统,并为整个系统提供单点管理和连接!
如何做到?
该系统在设计上采用代理-服务结构,可以跨多个机箱、刀片机架和基于机架服务器的节点进行部署。因此,思科的独特优势在于,我们所提供的超融合解决方案能够将刀片和机架系统以及传统 SAN 存储整合到其架构之中,从而提供任何其他解决方案都无法媲美的灵活性!
那么具体哪些服务器能支持其架构,并节省部署时间呢?答案往下看!
思科 HyperFlex HX 系列超融合节点
由 Intel Xeon 处理器提供支持
上述三种配置中提供的每个节点均配备两个 Intel Xeon E5- 2600 v4 系列 CPU 处理器。此 Intel Xeon 产品系列是构建敏捷、高效的数据中心的核心。此处理器的性能和能效远远高于上一代 Intel Xeon 处理器。这款处理器具有更多核心,可根据系统要求以智能方式匹配核心、内存、缓存和 I/O 电源,从而提供更多线程、更多处理器缓存空间和更高的主内存速度,并降低能耗。每款思科 HyperFlex HX 系列节点均包含多种处理器选项:核心数量最多为 44个, 时钟频率最高为 2.6 GHz,主内存可在 128 GB 到 768 GB 之间进行选择。
统一的集成式基础设施管理
思科 UCS 管理环境能够处理集群的所有硬件管理功能。此管理环境可通过 VMware vSphere 插件进行访问,它能够为物理基础设施、数据平台和虚拟化层提供单一控制点。此外,思科 UCS 管理环境也可以通过直观的HTML 5 或 Java GUI、命令行界面 (CLI),以及完全规范化的开放式 XML API 提供。
HyperFlex 统一的集成式基础设施管理
借助整个思科产品组合一致采用的思科 UCS 管理环境,超融合环境可以像其他思科基础设施(包括远程办公室和分支机构位置、企业计算、大数据和 Web 规模的 环境)一样进行管理和部署。
这下知道思科 HyperFlex 为什么叫做 “敏捷、高效且适应性强的解决方案” 了吧!其实思科在超融合领域的探索可不止于此!想了解更多未来远景?按照下方参与方式,参与到正在火热进行的思享家 “HyperFlex” 微话题中,与思科资深顾问工程师张亦安一起讨论、学习!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。