智能安全产品的自动化程度得到提升,增强对Web应用程序的威胁保护,提供更深入的实时洞察,提升边缘效率
2018年10月11日——负责提供安全数字化体验的智能边缘平台阿卡迈技术公司(以下简称:Akamai)宣布对其平台进行重大改进。这些更新可为那些通过Akamai Intelligent Edge Platform交付数字体验的企业提升洞察力、灵活性和品质,从而更好地保护和支持基于云的应用程序和基于Web的体验。这些新功能设计用于:
Akamai产品市场副总裁Ari Weil表示:“随着更多企业将其运营和应用程序移至云端,他们力图平衡安全性和灵活性需求,但往往会花费大量精力消灭某个单一问题,而非管理整个企业的数字战略。他们需要为与其合作的服务提供商提供更深入的洞察力、灵活性和品质,从而以经济、高效的方式实现这一目标。Akamai正在开拓创新,以帮助企业应对不断演变的挑战、威胁和竞争压力。”
随着云服务采用率的增加、网络架构继续朝着“零信任”(Zero Trust)模式演变,不断扩大的威胁面带来了越来越多的风险,而Akamai推出的新功能将能够应对这些风险。而随着僵尸网络变得更大、更复杂,而且能够利用人工智能的方式瞄准Web应用程序,安全专业人员需要能够结合多层监测方法的工具,例如对用户行为的统计分析、来自联网设备的传感器输入,以及对信誉评分的持续更新。
凭借今天发布的功能,Akamai客户将受益于边缘安全平台的改进,这些改进通过简化的工作流程以及实时和历史报告功能提供业务见解,以便客户了解僵尸网络等黑客技术对受保护端点所产生的影响。确保整个Web应用程序阵容安全的自动化保护和内置API保护,以及随时随地保护员工和应用程序访问的新客户端连接器,可以带来更高的灵活性。Akamai还扩展了其即时DDoS攻击抵御平台,提供了额外的容量和区域覆盖。
Akamai还推出了一些新设计的功能,旨在帮助开发人员在创造先进体验的同时维持严格的网络安全水平,实现客户体验和网络安全“两手抓”。Akamai Intelligent Edge Platform已经覆盖并扩展了企业和云解决方案,使企业可以经济高效地执行云迁移策略,并获得弹性和品质的提升。
现在,使用Akamai来支持云交付操作的客户可以获得更为真实的用户见解,了解对Web页面或应用程序的更改可能对用户体验产生何种影响,从而做出更好的决策。企业可以利用这些见解来实施性能的自动调优和品质优化,提升交付效率,加速渲染,并消除给用户体验带来负面影响的错误。Akamai还新增了对联合开发、容器化环境和微服务架构的支持,使开发人员能够迭代变更网站和Akamai配置,并在部署之前对其进行测试。
对于媒体公司而言,利用互联网交付广播级的收视体验正成为当务之急。Akamai新推出的解决方案有助于更简单、更经济高效地交付来自多个来源的流媒体电视(包括内容由云提供商托管的情况),同时帮助客户提供更好的观看体验。Akamai Direct Connect的设计支持客户可靠、安全、经济高效地进行线性视频(linear video)的首公里传输。这一平台新功能还可利用通用媒体应用程序格式(CMAF),为直播流媒体和线性流媒体提供超低延迟支持,通常仅比传统广播电视慢一到两秒。此外,Akamai Cloud Wrapper的架构设计可为使用公有云的客户提供灵活性,卸载更多的源站负载,降低传输成本。随着广播公司将更多内容工作流转移到云端,这些平台更新将大有用武之地。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。