当戴尔把“Project”(项目)这个词放在新计划的前面时,就相当于发出了一个信号,预示着明年将会有新产品或者新平台出现。
去年戴尔公布的Project Alpine,如今已经转化成一组名为APEX的新存储产品,于本周与宣布推出,重点是软件即服务和混合云。为了展望2024年的举措,戴尔今天宣布启动了两个新项目,一个是Project Helix,是和Nvidia合作的生成式AI计划,另一个是Project Fort Zero,该计划旨在未来12个月内提供经过美国国防部验证的高级零信任安全解决方案。
今天在美国拉斯维加斯举行的Dell Technologies World大会上的另一个重大新闻,是戴尔发布了NativeEdge,一款旨在简化、保护和自动化边缘基础设施和应用部署的操作软件。NativeEdge源自于戴尔去年推出的Project Frontier,旨在解决企业在边缘管理和部署业务中面临的复杂性。
戴尔公司高管在接受采访的时候,更加清晰地阐述了戴尔的长期优势战略。客户正在寻求通过硬件和软件基础设施产品之间的平衡来部署边缘解决方案,戴尔相信,戴尔有理想的解决方案来促进这些部署。
戴尔公司全球首席技术官John Roese(如图)在接受采访时表示:“硬件平台的选择不一定是要和你为扩展优势而运行的代码相挂钩,因为中间是有一些东西的,中间是边缘。”
多云的方法
在今天的公告中,戴尔把NativeEdge描述为“业界唯一提供了大规模安全设备接入、远程管理和多云应用编排的边缘操作软件平台。”戴尔对边缘的愿景与其多云理念相吻合,客户需要跨多个平台利用边缘用例,而这需要一个平台型解决方案。
Roese说:“无论你使用的是哪种云,你都应该能够在边缘运行,但这么做的结果就是,每一种体验都需要自己的基础设施。为了让所有在容器中运行的软件能够真正地共享边缘环境,你需要构建一个平台。”
戴尔一直在分阶段地构建他们的边缘实施,包括过去几年陆续发布的边缘优化硬件,如PowerEdge服务器、PowerScale存储和VxRail超融合基础设施。但是,戴尔仍然需要一个控制平面,一种编排工作负载能够运行在具有类似云功能的边缘平台上。
今年早些时候戴尔低调地收购了Cloudify,为戴尔最近一系列关于边缘的公告奠定了基础。Cloudify的产品被DevOps团队用来管理多云环境中的工作负载和软件容器。
Roese说:“你如何知道哪些代码在那里,以及如何在其生命周期内管理它?这不是个别云会做的事情,他们不理解共享边缘的概念。我们必须将其作为一个带有控制平面的系统来交付,这就是NativeEdge,它能够编排您想要在这些边缘平台上运行的任何工作负载,将这些工作负载像云一样对待。”
简化操作
对于大型制造商来说,能够在多个工厂地点实现自动化包装和运输是需要连接多种技术的能力,例如物联网、流数据和相机图像。简化边缘操作,能够让制造商在多样化的环境中快速安全地推出新的应用。
戴尔公司边缘计算产品、战略和执行工程技术副总裁Pierluca Chiodelli在接受采访时说:“边缘是非常分散的,真正的挑战是简化自动化和保护边缘。NativeEdge是解决这个问题的下一个步骤。”
戴尔推出NativeEdge的同时还公布了一项企业研究结果,该研究评估了NativeEdge部署给客户带来的经济影响。据戴尔称,更快速的部署和通过减少新设备安装时间而节省的成本让客户从中受益。
Chiodelli指出,这次Dell Technologies World大会主题演讲观众中,有45位是NativeEdge的客户,其中许多人在塑造最终产品方面发挥了重要作用。
Chiodelli说:“这些客户让我们能够以更好的方式设计NativeEdge,他们购买的是结果,每个人都在努力寻找解决边缘挑战的方法。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。