新区域设立于阿姆斯特丹、雅加达、洛杉矶、迈阿密、米兰、大阪和圣保罗,将助力 Akamai 实现更加现代化、分布更广泛的云计算愿景
2023年 10月 25日 – 负责支持和保护网络生活的云服务提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM),近日宣布在欧洲、亚洲、北美和拉丁美洲新增七个核心计算区域。这些核心计算区域分别位于荷兰阿姆斯特丹、印度尼西亚雅加达、加利福尼亚州洛杉矶、佛罗里达州迈阿密、意大利米兰、日本大阪和巴西圣保罗,这是 Akamai 自去年收购 Linode 以来推出的第三批新核心计算区域,也是 Akamai 重新定义云运营方式的关键推动步骤。
在圣保罗和迈阿密新增核心计算区域后,Akamai 可以支持各公司更轻松地在拉丁美洲开展业务。凭借这两个新的核心计算区域,Akamai 在这个长期以来由超大规模云提供商主导的市场中成为了颇为引人关注的竞争对手。Akamai 入驻圣保罗后,客户能够在南半球人口最多的城市和国家之一运行工作负载,避免了目前需要跨洲传输工作负载所面临的巨大经济和绩效障碍。Akamai 试图在全球各个难以进驻的市场建立核心计算区域,而圣保罗和迈阿密便是其中的两个代表性城市。Akamai 可以将这些区域连接到目前为其边缘网络提供支持的同一底层骨干网,该边缘网络广泛覆盖 131 个国家/地区的 4,100 多个边缘 PoP。
Akamai 正在改变企业处理云架构的方式,且着重考虑分布更加广泛、更加分散、低延迟且全球可扩展的设计。Akamai 的云计算服务非常适合需要在更靠近最终用户位置运行的更高性能的工作负载,如流媒体、游戏和电子商务应用中常见的工作负载。这些服务是 Akamai Connected Cloud 的一部分,这是一款涵盖云计算、安全性和内容交付的大规模分布式边缘和云平台,可使应用程序和体验更靠近用户,帮助用户远离威胁。
Akamai 云技术业务首席运营官兼总经理 Adam Karon 表示:“公司需要更加出色的用户体验,而这越来越暴露出传统集中式云模式的局限性。我们正在通过改变模式为客户解决这一难题。借助 Akamai Connected Cloud,我们正在采取一种由外而内、分布式优先的方法,该方法的构建基于对云原生技术的承诺以及二十多年来全球众多大型公司所依赖的同一网络。这是一种着眼于未来的方法,未来,网络规模与数据中心的规模将同样重要。”
七个新增全球核心计算区域
最新一批战略性核心计算区域开始上线,并在 9 月和 10 月面向客户开放。这些区域将 Akamai 的云计算网络扩展到关键的数据密集型连接点,并最终支持客户改善最终用户的连通性和体验。
在过去的 90 天里,Akamai 开放了 13 个新的核心计算区域。在今日宣布的区域之前,就已经有了位于亚特兰大、达拉斯、费利蒙、纽瓦克、多伦多、法兰克福、伦敦、孟买、新加坡、悉尼和东京的各个区域,还有最近宣布的位于芝加哥、华盛顿特区、巴黎、斯德哥尔摩、西雅图和钦奈的区域。Akamai 计划将于今年晚些时候推出更多全球核心计算区域。
有关 Akamai Connected Cloud 和 Akamai 云计算服务 的更多信息,请访问 Akamai 网站。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。