Akamai Cloud Wrapper可以缓存云端内容;Akamai Direct Connect提供与Akamai边缘网络相连的私有专用连接
2018年9月20日——负责提供安全数字化体验的智能边缘平台阿卡迈技术公司(以下简称:Akamai)宣布推出两款针对电视广播公司和发行商的全新解决方案,旨在帮助他们解决与云计算相关的难题,并确保向Akamai网络交付高品质源站内容。Akamai Cloud Wrapper和Akamai Direct Connect展示了Akamai Edge在帮助广播公司降低成本、提供高性能广播级品质流媒体方面的能力,并将有效支持后者实施云计算等新兴技术战略。
Akamai Cloud Wrapper可优化公有云基础设施与Akamai智能边缘平台之间的连接,从而在无需更改现有工作流程的情况下,消除在云环境中进行OTT交付的常见障碍。Cloud Wrapper尤其能在围绕集中式云基础设施搭建的Akamai交付网络内为客户提供专用缓存占用空间,旨在最大程度提高源站卸载量和减少源站请求负荷,同时最大程度减少流媒体电视的出向费用(egress fees)。
Akamai Direct Connect可以为管理自有源站基础设施的客户提供与Akamai边缘网络的私有专用连接,提升了交付源站内容的可靠性。两款解决方案均为Akamai直播和点播流媒体服务Adaptive Media Delivery的组成部分。
越来越多的广播公司和OTT提供商迁移至集中式云平台来实现计算和存储效率。然而,随着其内容库的不断增长,他们通常面临着许多与云端交付此类内容相关的挑战。例如,太多的观众流媒体播放请求在云部署中涌至内容源站,对性能造成影响。广播公司和分发商为每项未卸载的请求支付出向费用——具体而言,即那些从源站执行而非Akamai边缘执行的请求。
Cloud Wrapper基于Akamai的分布式边缘网络,可以在客户的云环境之外缓存或存储OTT内容,通过降低抵达源站的用户请求的频率,提高源站卸载量。更高的卸载量意味着广播公司和分发商需要为源站内容的访问向云提供商支付的费用更少。由于Cloud Wrapper能够与Adaptive Media Delivery、Download Delivery和Object Delivery等Akamai边缘交付解决方案无缝协作,因此Akamai可帮助广播公司向消费者提供卓越的观看体验。
运行其自己的基础设施的Akamai广播商客户通常会在内容抵达Akamai边缘之前,通过公共互联网交付电视内容。互联网拥塞会干扰“第一英里”,进而影响流媒体播放效能并推高IP转接和源站成本。
Akamai Direct Connect可将客户的基础设施直接连接至Akamai边缘网络,从而使客户能够充分获益于一致且可靠的一英里性能,最终交付广播级品质观看体验、降低源站IP转接成本,并且能通过限制公共连接保护其源站基础设施。广播公司通过Direct Connect连接至Akamai的网络之后,将能够访问Adaptive Media Delivery以及Media Services Live——Akamai领先的全天候直播线性服务。
Akamai媒体行业和产品市场部副总裁Campbell Foster表示:“虽然Akamai在今年一而再地打破了电视直播流媒体播放流量纪录,但我们认为Akamai还刚处于直播、线性和点播电视流媒体播放迅速盛行的早期阶段。通过推出Cloud Wrapper和Direct Connect等创新解决方案,Akamai致力于在‘采用曲线’(adoption curve)中占据领先地位。我们客户的流媒体播放服务逐渐发展成为他们业务运营中越来越重要的组成部分,Akamai致力于帮助他们充分实现Akamai边缘在他们的工作中所起到的重要作用。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。