代码贡献将协议压缩率提高两倍,并降低大容量遥测及人工智能驱动项目的带宽成本
西雅图 — 2023年9月25日 — F5(NASDAQ: FFIV)今日宣布将继续支持云原生计算基金会OpenTelemetry项目。这是一个开源框架,旨在通过提供用于检测、生成、收集和导出遥测数据(指标、日志和跟踪信息)的标准化工具合集,帮助 IT 团队更精准地分析其解决方案的性能和行为。在与ServiceNow的开发合作中,F5已贡献约40,000行代码,将OpenTelemetry协议的可压缩性提高一倍。此项创新可降低从数据中心、云和边缘位置向遥测平台传输数据的成本,在特定的数据工作负载下可降低一半之多。为更好理解这一贡献的规模,通常软件开发人员每年需编写10,000到25,000行代码,而平均每个开源项目则需编写约35,000行代码。
通过优化指标、日志和跟踪信息等遥测数据的收集、吸收和分析,企业将能够在不断变化的IT环境中更高效且出色地提供智能的自动化响应。例如,通过将用户和应用的登录和行为特征与典型的使用模式进行对比,遥测技术可帮助安全团队发现并阻止欺诈和恶意活动。通过利用全新改进的OpenTelemetry协议,客户将此类遥测数据从公有云导出到遥测聚合系统的相关遥测流量出口成本预计将减少50%。
F5项目负责人和杰出工程师Laurent Quérel表示,“现代网络解决方案、应用和用户在日常运行过程中会产生难以估量的海量数据,因此,想要以更加经济高效的方式为更多企业带来全面的遥测优势,协议压缩率至关重要。与过去的传统企业相比,如今的企业环境更适合于收集和分析数据,但仍在有效传输、集中化和标准化方面面临挑战,正是这些挑战成为了F5倾力投资OpenTelemetry项目的原因。通过将OpenTelemetry应用在F5的产品组合中,并持续与相关企业例如ServiceNow等共同参与领先的开源项目,我们见证了无数的成功用例,这些用例展示了如何借助性能评估、提高效率和增强取证功能,使应用更好地适应不断变化的运行环境,同时将客户成本降至最低。”
F5与ServiceNow云可观测性项目(ServiceNow Cloud Observability)合作,借助Apache Arrow的技术支持进一步优化OpenTelemetry协议,以显著提高处理速度并降低带宽成本,并合作推出了OpenTelemetry Arrow项目和参考实施指南。Apache Arrow是一项开源技术,可增强大数据、分析和机器学习能力,其提供的一套标准化方式来呈现结构化和半结构化数据,使其更具可操作性和可理解性。此外,Apache Arrow还支持高级遥测功能,可用于监控和分析数据流。
对许多企业而言,高效传输和处理遥测数据需要花费掉大部分的遥测管道成本。因此,实现遥测标准化尤为重要,因为为了实现充分的可观测性和人工智能驱动的分析,这需要统一从整个 IT 堆栈中获取数据点。在开源社区内开发和完善协议增强功能和标准,这为周边行业项目和解决方案基础设施提供了强大的生态系统,以满足特定企业和用户需求的定制功能。此外,该方法允许F5客户更清晰地了解影响其应用的直接因素,从而更好地分配IT资源,以便在未来进行战略性投资。
ServiceNow云可观测性项目(前身为 Lightstep)首席架构师Daniel “Spoons” Spoonhower表示,“当Lightstep与其他合作伙伴共同创立OpenTelemetry项目时,我们的目标是在开源社区中助力企业提高可见性而无需增加额外支出。通过与F5的紧密合作,我们将继续满足企业的需求,即以更低的成本传输更多的数据。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。