全新的全球站点开启了云计算的现代分布式设计之门,向传统的云架构发起挑战
2023年 7月 13日 – 负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM),近日对外公开了三个云计算站点,这些站点实现了公司有关新型云计算的愿景,即满足现代应用程序的需求。现代应用程序需要较高的性能、较低的延迟和真正的全球可扩展性,但目前的云架构无法满足这些需求。
这些新站点标志着 Akamai 在将计算、存储、数据库和其他服务放置在同一底层主干网上迈出了重要的第一步,这个主干网也在为其广泛覆盖 134 个国家/地区、4,200 多个位置的边缘网络提供支持。
Akamai云技术事业部首席运营官兼总经理 Adam Karon 表示:“分布式工作负载需要分布式基础架构。对于越来越需要将应用程序和数据置于更靠近客户的地方以提升用户体验的开发人员和公司而言,传统的集中式云架构无法帮其化解这方面的挑战。”
Akamai 正在采用一种全新的云计算方法,以转变开发人员和公司在从核心到边缘的整个计算连续体中构建、部署和保护应用程序和数据的方式。对于推出的新站点,Akamai 重构了传统的数据中心设计原理。除了扩展核心云计算服务外,Akamai 还利用其丰富的内容交付经验,将每个站点连接到公司庞大的全球主干网。这样一来,Akamai 便可依托为下一个十年(而非上一个十年)搭建的架构,让更广泛的商业客户享受到基于Akamai的云计算服务的简单性、经济性和可访问性。
五个新站点
Akamai 的新站点分别战略性地定位于巴黎、华盛顿特区和芝加哥,本季度晚些时候也将在西雅图和印度钦奈开放。这些站点采用新的架构设计和硬件配置,可为 Akamai 全球网络上的商业用户提供高性能、可扩展的云资源。
Karon 表示:“下一代应用程序要求新的云基础架构要能比目前传统云提供商架构降低更多的延迟,并提高出站流量。我们目前打造的云基础架构正是围绕这一未来需求展开的。鉴于我们业务和客户群的性质,我们拥有独特的优势,可以站在与大多数人不同的角度看待云计算。我们得到的反馈不仅来自自己的客户,还来自竞争对手的客户,而他们越来越多地提到,是我们的边缘化愿景化解了他们在当前的集中式云计算方案中所面临的许多规模化和可移植性方面的挑战。”
新型高级实例
该公司还发布了新型高级实例,可为大型商业工作负载提供一致的性能、可预测的资源和预算分配,以及更简单的 SKU 管理。新实例类型可保证将任务分配给现有的性能最佳的处理器和硬件组合。此外,新实例还支持更轻松地管理多个部署和升级,而不需要复杂的 SKU 匹配。而在前三大传统的超大规模提供商中,每月 SKU 匹配次数往往超过 100,000 次。新型高级服务在公司新推出的每一个站点上均可使用,是对 Akamai 现有共享和专用产品的补充。
对象存储容量翻倍
此外,Akamai 还宣布将其对象存储产品的容量增加一倍,达到 1PB,每个存储桶 10 亿个对象。通过此次升级,企业可访问的数据量更大,进而可构建可扩展、高性能且低延迟的云原生应用程序和分析解决方案。今日发布的新站点中将提供进一步增加限制的集群。
新的 Global Load Balancer
最后,公司宣布计划在本季度晚些时候推出 Akamai Global Load Balancer,这是 Akamai 收购 Linode 后计划推出的几项整合式服务中的第一项。新的全球负载平衡功能可确保不会出现单点故障,并将流量请求路由到最佳的数据中心以尽可能降低延迟。
Akamai Global Load Balancer 将 Linode NodeBalancers 现有的本地流量负载平衡功能与现有的 Akamai Global Traffic Manager 和 Application Load Balancer 服务相联系。通过这一整合,客户可以在 Akamai 网络和数量迅速增多的站点中自由选择本地或全球负载平衡。Akamai Global Load Balancer 的推出是 Akamai Connected Cloud愿景的重要一环。
新的云计算节点和功能是 Akamai Connected Cloud 的一部分,这是一款涵括云计算、安全性和内容交付的大规模分布式边缘和云平台,可使应用程序和体验更靠近用户,帮助用户远离威胁。Akamai Connected Cloud 于今年 2 月发布,其基础是为全球大型公司扩展和保护互联网的 25 年经验积淀。
有关 Akamai Connected Cloud 和 Akamai 云计算服务 的更多信息,请访问 Akamai 网站。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。