戴尔今天表示,正在通过用于微软Azure云本地部署的新产品系列来扩展APEX产品组合。
这是戴尔最近发布的Dell APEX Cloud Platform的第一款产品,为Microsoft Azure Stack HCI提供一系列基础设施产品。Microsoft Azure Stack HCI是一个超融合基础设施平台,客户可以在他们的本地数据中心运行该平台。
微软的Azure Stack平台可以被认为是扩展Azure云平台的一种方式。客户可以用它来创建混合云计算环境,其中的本地系统与Azure公有云深度集成,使应用、数据和工作负载能够在两者之间移动。
戴尔的APEX服务是一个以即服务模式向客户提供的软硬件产品组合,这意味着客户可以访问戴尔尖端的数据中心硬件,而无需像以往一样预先支付所有费用。相反,他们可以租用基础设施,根据需求的变化灵活添加和删除系统。
戴尔在今年5月举行的Dell Technologies World大会上公布了Dell APEX Cloud Platform。当时戴尔表示,该平台让客户可以将他们对云的选择扩展到自己的本地生态系统,以更好地控制工作负载的分配,同时获得一致的体验。
APEX Cloud Platform for Microsoft是第一款上线的此类产品。它提供了与Azure Arc的原生集成,以跨本地环境和云环境自动部署应用和工作负载。戴尔表示,与现有集成系统相比,Arc内的自动化部署向导可以平均减少88%的部署步骤。
此外,该平台还有助于优化Azure Kubernetes服务和支持Arc的应用以及数据服务的交付,以加速应用交付。戴尔表示,用户还可以在两种Azure环境中实施一致的安全性和合规性。在支持方面,客户可以订购戴尔的ProSupport基础设施套件,以获得针对硬件、软件和Azure HCI的“解决方案级支持”。
戴尔还详细说明了使用APEX进行Azure Stack HCI部署的客户能够获得哪些优势,包括全栈生命周期管理,可以即时访问新软件版本和安全补丁,以及自动集群扩展功能,让客户可以快速且简单地扩展本地基础设施以满足工作负载的需求。
这些好处会变得更好,因为戴尔表示,很快将提供对基于戴尔PowerEdge XR4000服务器平台的专用节点访问路径,把Azure云扩展到网络边缘,此外戴尔还计划扩大客户可用的存储配置范围,以支持独立于计算资源的存储资源线性扩展。
戴尔认为,通过把Azure云服务扩展到本地数据中心环境,将带来增加收入的巨大机会。戴尔引用了TechTarget旗下子公司Enterprise Strategy Group的一项研究表示,46%的企业计划在未来几年扩大他们的本地部署。戴尔则希望通过提供把Azure引入私有数据中心和边缘站点的最佳方式来帮助他们。
Constellation Research分析师Holger Mueller表示,微软是第一家意识到需要把混合云平台扩展到本地数据中心的主流云厂商,并通过Azure Stack HCI平台做到了这一点。
Mueller解释说:“Azure Stack是一个基于合作伙伴的解决方案,在部署和设置方面存在一些固有的挑战。戴尔正在通过APEX Cloud Platform for Microsoft Azure克服其中的很多挑战,让您可以更轻松地在任何位置运行工作负载。在企业自动化的时代,这种产品总是会很受欢迎的,因此戴尔对客户的采用抱有很高的期望。”
微软Azure Edge + Platform企业公司副总裁Douglas Phillips也认同这些想法,他表示,他看到有越来越多的客户寻求帮助,把Azure的功能带入现实世界中包括工厂、零售店、快餐店和其他分布式地点。他说:“通过和戴尔合作,我们可以将足够的Microsoft Azure部署到这些边缘位置,为我们共同的客户提供从云端到边缘的无缝体验。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。