如今,企业领导者正在想方设法解决当今数字经济背景下存在的固有矛盾。一方面,他们认识到必须继续在云端推动围绕应用程序的创新,才能吸引客户并在竞争中脱颖而出;但另一方面,许多企业正苦于不断上升的云成本在侵蚀企业的利润。
随着企业的日常运作越来越依赖多云架构,这种矛盾正在加剧。根据VMware《多云成熟度调查报告》显示,99%的大中华区企业认为多云架构对业务成功至关重要。与此同时,93%的大中华区企业表示需要加强对云支出的控制。1简而言之,虽然企业意识到多云架构至关重要,但也同时受困于不断上升的云成本。
多云模式成为主流
VMware全球调查证实,多云模式在过去两年中已经成为主流。企业应用开发团队在拥抱多云方面表现得尤为积极;89%的大中华区企业表示,其拥有“多云应用”或拥有能够在多个云中扩展的应用程序。1
VMware高级副总裁兼首席技术官Kit Colbert在《福布斯》杂志上发表的一篇文章中写道:“我们建议应用团队不要以‘非黑即白’的态度看待公有云(不是全盘接受、并使用其所有服务,就是不使用任何公有云服务),而是要比较云服务和来自第三方的具体服务,判定其能否满足自己的需求。作出最佳选择的基本原则是将云和第三方单纯视为服务集合,并根据应用团队的需要混合搭配。这可以给应用团队带来更大的选择范围,让他们在构建和操作应用时获得最佳体验和功能。”
拥有多云应用的企业表示,多云策略带来的优势包括缩短产品上市时间、满足客户需求、招募和留住顶尖人才等。
企业领导者认识到,随着对云端应用创新投资的不断增加,其在控制和管理云成本上承受的压力越来越大,这将不断侵蚀企业利润,并在整个IT预算中占据越来越大的份额。根据Gartner预测,公有云服务的增长率将从2022年的17.9%提升至2023年的18.5%。2 IDC的最新数据显示,45%的企业认为其在云和数据中心基础设施上的开支过大。3《多云成熟度调查报告》中的受访企业也有同样问题,约39%的大中华区企业表示其正在为超出预期的云成本感到焦虑。
疲于应对云混乱的企业与更加成熟、先进的云智能企业之间存在着鲜明的对比。与云智能企业相比,处于云混乱状态的企业遭受着巨大的财务收入损失。
所有多云企业的最终目标都是最大程度地利用云固有的可扩展性来取得战略优势,而不是让这种可扩展性演变成失控的支出。处于云智能状态的企业在这方面显然更游刃有余。
VMware高级副总裁兼首席信息官Jason Conyard表示:“目前首席信息官也在评估实现云的灵活性与可扩展性所付出的成本。他们正在寻找新的方法,既能控制不断上升的云成本,同时又能够自由流畅地运行跨云服务。”
这里有一个很好的案例。日本沢井制药株式会社(Sawai Group Holdings)在其数字化转型过程中,采用VMware Aria进行成本管理和安全监控,从而使其成本降低了10%,同时保证了运营安全。该公司的目标是在未来降低26%的成本。
沢井制药株式会社集团信息技术部门总经理Koji Takeda表示:“我们上云面临的难题是如何将整体成本和安全状况可视化,并创建一个易于理解和管理的系统。无论是从技术,还是从成本角度来看,这个目标似乎都难以实现。最后,我们在VMware解决方案的帮助下快速、低成本地解决了这个难题。”
1 Vanson Bourne,《多云成熟度调查报告》,2022年10月。
2 Gartner,《2022年第4季度更新的2020-2026年全球公有云服务预测报告》,2022年12月20日。
3 IDC,《业务成果和关键绩效指标在全球不确定时期塑造了数字基础设施支出的优先权:IDC全球数字基础设施2022年全球情绪调查结果》,文件编号US49066722,2022年8月。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。