持续产品创新助力客户在IT和安全市场取得成功
北京—2018年8月30日——率先从机器数据带来惊喜时刻的Splunk公司今天宣布,据全球著名的分析机构IDC和Gartner的2017年市场份额报告显示,Splunk在IT运维分析(ITOA)、IT运维管理(ITOM)以及安全与漏洞管理方面呈持续增长态势。
对此,Splunk公司总裁兼首席执行官Doug Merritt认为:“当前我们处于数据变革的前期,Splunk走在行业前沿,帮助客户完成其业务的转型。IDC和Gartner的市场份额报告很好地印证了Splunk正在驱动客户持续业务的改进,同时也展现了Splunk在从大量数据中提取价值和洞察力方面的优势。”
在IDC《2017年全球IT运维管理软件市场份额:混合管理推动增长》报告中显示,Splunk成为该市场中前五家厂商当中增长最快的一个。2017年,全球IT运维管理软件市场收入增长9.1%,达到83亿美元。
Splunk持续快速增长基于大数据的获取、索引、管理、搜索和可视化功能,这些功能可扩展到各种机器生成的数据源,比如度量和日志。可点击下载《2017年IDC全球IT运营管理软件市场份额:混合管理驱动增长》。对此,IDC系统与IT运维管理软件研究副总裁Tim Grieser表示:“全球IT运维管理软件市场在2017年实现强劲增长,这得益于企业越来越多地采用为终端用户带来消费级体验的数字业务计划,并根据客户需求监控、管理和优化端到端性能,以及提供混合系统和应用的可用性。”
在安全市场上,IDC报告《2017年全球安全与漏洞管理市场份额:捍卫无边界网络》显示, 2017年Splunk的百分比增速是IBM和Micro Focus(HPE)的五倍。2017年,安全与漏洞管理(SVM)市场增长12.3%,预计达到67亿美元。报告中还显示,Splunk正向集IT、OT和安全的一站式厂商的道路迈进。无论按哪种技术分类来看,Splunk无疑在网络安全领域赢得了非常高的市场份额,尤其跟其他SIEM厂商相比。Splunk Enterprise Security和Splunk User Behavior Analytics (UBA)已被证明是安全领域的制胜组合。
IDC全球安全产品研究总监Chris Kissel表示:“安全人员的缺乏和不断改进的产品架构,正在改变当前的安全和漏洞管理模式。简而言之,SVM产品不再告诉客户哪里出错 ——而平台必须启动补救措施。”
Gartner发布的《市场份额分析:2017年全球IT业务管理(ITOM)性能分析软件》报告显示,Splunk连续两年在AIOps/ITIM/其它监测工具类别中排名第二。报告指出数字业务转型正在推动对现代监控工具的需求,这些工具通过DevOps工具链而支持灵活敏捷的应用和基础设施。2017年,ITOM市场规模达到247亿美元,较2016年增长9.6%。
在Gartner的报告中,与前一年相比,Splunk从2016年的第五位跃升至2017年的第二位,在2016- 2017年软件收入排名,Splunk被列为全球10大ITOM性能最高的分析软件供应商。可点击免费获取Gartner《市场份额分析:2017年全球IT业务管理(ITOM)性能分析软件》报告。
据了解,IDC的两份报告均采用的是2017年自上而下的公司层面数据收集方法,在2018年1月通过深入的供应商调查和分析,按照市场、地理区域和运营环境而开发出详细的2017年公司模型。Gartner报告中公布的数据包括软件收入、市场份额和年增长率。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。