Akamai Cloud Wrapper可以缓存云端内容;Akamai Direct Connect提供与Akamai边缘网络相连的私有专用连接
2018年9月20日——负责提供安全数字化体验的智能边缘平台阿卡迈技术公司(以下简称:Akamai)宣布推出两款针对电视广播公司和发行商的全新解决方案,旨在帮助他们解决与云计算相关的难题,并确保向Akamai网络交付高品质源站内容。Akamai Cloud Wrapper和Akamai Direct Connect展示了Akamai Edge在帮助广播公司降低成本、提供高性能广播级品质流媒体方面的能力,并将有效支持后者实施云计算等新兴技术战略。
Akamai Cloud Wrapper可优化公有云基础设施与Akamai智能边缘平台之间的连接,从而在无需更改现有工作流程的情况下,消除在云环境中进行OTT交付的常见障碍。Cloud Wrapper尤其能在围绕集中式云基础设施搭建的Akamai交付网络内为客户提供专用缓存占用空间,旨在最大程度提高源站卸载量和减少源站请求负荷,同时最大程度减少流媒体电视的出向费用(egress fees)。
Akamai Direct Connect可以为管理自有源站基础设施的客户提供与Akamai边缘网络的私有专用连接,提升了交付源站内容的可靠性。两款解决方案均为Akamai直播和点播流媒体服务Adaptive Media Delivery的组成部分。
越来越多的广播公司和OTT提供商迁移至集中式云平台来实现计算和存储效率。然而,随着其内容库的不断增长,他们通常面临着许多与云端交付此类内容相关的挑战。例如,太多的观众流媒体播放请求在云部署中涌至内容源站,对性能造成影响。广播公司和分发商为每项未卸载的请求支付出向费用——具体而言,即那些从源站执行而非Akamai边缘执行的请求。
Cloud Wrapper基于Akamai的分布式边缘网络,可以在客户的云环境之外缓存或存储OTT内容,通过降低抵达源站的用户请求的频率,提高源站卸载量。更高的卸载量意味着广播公司和分发商需要为源站内容的访问向云提供商支付的费用更少。由于Cloud Wrapper能够与Adaptive Media Delivery、Download Delivery和Object Delivery等Akamai边缘交付解决方案无缝协作,因此Akamai可帮助广播公司向消费者提供卓越的观看体验。
运行其自己的基础设施的Akamai广播商客户通常会在内容抵达Akamai边缘之前,通过公共互联网交付电视内容。互联网拥塞会干扰“第一英里”,进而影响流媒体播放效能并推高IP转接和源站成本。
Akamai Direct Connect可将客户的基础设施直接连接至Akamai边缘网络,从而使客户能够充分获益于一致且可靠的一英里性能,最终交付广播级品质观看体验、降低源站IP转接成本,并且能通过限制公共连接保护其源站基础设施。广播公司通过Direct Connect连接至Akamai的网络之后,将能够访问Adaptive Media Delivery以及Media Services Live——Akamai领先的全天候直播线性服务。
Akamai媒体行业和产品市场部副总裁Campbell Foster表示:“虽然Akamai在今年一而再地打破了电视直播流媒体播放流量纪录,但我们认为Akamai还刚处于直播、线性和点播电视流媒体播放迅速盛行的早期阶段。通过推出Cloud Wrapper和Direct Connect等创新解决方案,Akamai致力于在‘采用曲线’(adoption curve)中占据领先地位。我们客户的流媒体播放服务逐渐发展成为他们业务运营中越来越重要的组成部分,Akamai致力于帮助他们充分实现Akamai边缘在他们的工作中所起到的重要作用。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。