Jeff McCullough,SolarWinds 全球合作伙伴销售副总裁
业务由数据推动。公司依靠数据制定明智决策,为用户和客户提供个性化服务,并将全球团队联系在一起。数据如此重要,通常是公司最有价值的资产。
然而,数据只有在合适的时间被合适的人使用才能发挥作用,这就是为什么有些组织机构会部署一些监控工具来让数据持续运行。通过监控,数据专业人员会在数据变化或出错时收到警报(有时可能是大量的警报)。
当发生故障或出现 bug 时,定位本身就是一项工作。数据专家们要花费大量的时间去排查问题,寻找解决方案。一些组织机构比较幸运,有一个对数据库了如指掌的员工,但如果这个人在度假或离职,其他人就只能从头开始。
即使在没有任何问题时,也会有没完没了的例行警报。这些频繁的警报所造成的“警报疲劳”便成为了数据管理的通病。
客户曾询问我们的合作伙伴:难道没有更好的方法吗?
端到端监督
传统监控依赖仪表板,对照手动或基本的统计相关阈值来评估遥测数据。监控通常是针对特定的网络、云或基础架构,显示哪些监控组件正常运行,哪些停机,以及哪些发生了变化。
现代系统是多云端或混合云系统,计算机、应用和数据库必须跨域连接,由此就产生了大量传统监测机制无法有效管理的遥测数据。不仅如此,这些监控工具也无法持续提供跨域关联、服务交付洞察、操作相关性或可预测性。
因此,SolarWinds为我们合作伙伴的客户提供了一个整合的解决方案,使他们无需忙于应对一系列监控工具:我们称之为全栈式可观察性。
全栈式可观察性为客户提供了针对服务交付和组件相关性的端到端监督功能,以便在问题发生之前更好地预测和识别。
通过全栈式可观察性,客户可以:
全栈式可观察性能够持续分析影响用户体验和性能的条件,以此预测组件可能产生的问题、服务级别和所需的容量变化。全栈式可观察性还提供可视化和洞察、深度分析、更高的工作流效率以及自动化和闭环管理。
实际上,通过全栈式可观察性,客户可以更高效轻松地工作,无需费力克服各种困难。组织机构不再需要依赖某个总能解决问题的工作人员,同时,全栈式可观察性还能够帮助 ITOps、DevOps 和安全组织实现一致的、优化的和可预测的业务服务交付,改善数字体验和提高IT 生产力。
不仅如此,组织机构可获得服务和组件级别的可视化、洞察和智能,因此可以更快地做出决策。客户可以管理那些支持他们及员工的服务,并在解决问题、配置、报告和规划任务时满足服务级别协议(SLA)。
利用全栈式可观察性,IT 组织机构不再只是被动反应,而是可以专注于更高级别的流程,从而提高工作效率。这样一来,整个 IT 组织机构的工作会在问题解决、配置、报告和规划任务方面更加高效。
合作伙伴社群
作为 SolarWinds 全球合作伙伴销售副总裁,笔者已在 IT 渠道销售和高级管理部门工作了 20 多年。SolarWinds 的合作伙伴希望尽可能为客户提供卓越的工具,同时也希望与其合作的供应商成为真正的合作伙伴,共同创造绝佳的项目,互相支持,高度透明且步调一致。他们需要供应商理解合作是一种共生关系,双方都追求客户满意这同一件事。
今年,SolarWinds 在合作伙伴生态上进行了更多投入。合作伙伴峰会期间,我们提出了针对合作伙伴的各项投资,包括更加注重培训和赋能。我们还扩大了销售认证和技术认证服务范围,以涵盖最新的产品,包括我们新的 SolarWinds® Hybrid Cloud Observability。同时,我们还在扩展服务计划,以便与合作伙伴一起为客户提供最好的体验。客户希望与最出色的伙伴合作,通过提供范围广泛的鉴定和认证计划以及完整的服务产品,客户可以放心地转向全栈式可观察性,SolarWinds 的合作伙伴也可以做他们最擅长的事情,满足客户需求。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。