虚拟化软件巨头VMware今天宣布将收购一家名为Lastline的反恶意软件研究初创公司,以助其更好地检测复杂的网络威胁。
VMware表示,预计将在7月底完成对Lastline的收购,通过增加以网络为中心的威胁研究和行为分析,提升Carbon Black Threat Analysis Unit部门的能力。Lastline的员工中有一些学术网络安全研究人员,他们将加入VMware。
VMware高级副总裁、网络安全业务总经理Tom Gillis在宣布这次收购交易的博客文章中写道:“交易完成之后,我们将把一支世界一流的网络反恶意软件研究人员、开发人员、投入市场的安全专家团队,整合到VMware NSX团队中。”
根据Crunchbase的数据,Lastline有156名员工,自2011年成立以来,已经在六轮融资中累积获得5.22亿美元资金。但是据TechCrunch报道,VMware计划在完成收购之后裁掉约40%的Lastline员工。VMware和Lastline均拒绝对此发表评论。
Lastline首席执行官John DiLullo在博客中写道:“通过与VMware携手,我们将能够为客户提供更多功能,将面向数据中心、分支机构以及远程和移动用户的全方位安全解决方案推向市场。”
Lastline有15名博士和学者,其中有几位是全球顶尖的安全威胁研究人员。Gillis说,Lastline还因将“结构和严谨性”带入恶意软件研究领域而受到赞誉。他说,Lastline与Carbon Black的合并,将让VMware能够更好地了解恶意软件创建者的动机和策略。
Gillis解释说,Lastline的产品使用“完整系统仿真”来更深入地研究恶意软件执行的每条指令,从而使研究人员更深入地了解其工作原理,这样反过来能够使Lastline检测和缓解各种相关类型的恶意软件。
Gillis这样写道:“Lastline系统检测到的恶意文件数量,是基于签名的系统的两倍。Lastline每天运行超过500万个文件样本,可以保护全球1000多个企业组织(包括全球TOP10金融机构中的5个)的2000多万用户。”
他说,VMware的NSX架构将帮助Lastline极大地扩展覆盖面,跨数万个核心执行网络分析,而无需利用网络流量。他说,通过提供更大范围的工作负载环境信息,恶意软件分析将成为Carbon Black端点检测和响应服务的一个关键组成部分。
DiLullo表示,Lastline将帮助VMware提供更广泛的网络安全工具,补充VMware的云、数据中心和工作负载保护现有产品。
“很少有安全公司能达到Lastline与VMware合体之后所具有的网络和端点功能广度。”
VMware最近几个月在安全领域有不少大动作,先是在2019年8月以21亿美元收购Carbon Black;然后在2020年1月收购了网络分析初创公司Nyansa,以改善VeloCloud SD-WAN平台的监控、网络和修复能力。三周前,VMware收购了Kubernetes安全初创公司Octarine,以增强自己在Carbon Black Cloud和AppDefense安全产品。
Constellation Research分析师Holger Mueller说:“就像时钟一样准确,我们看到了VMware又一次发起了收购。这次收购的思路没变,都是为了加强VMware的网络安全能力。Carbon Black部门的发展会越来越好,因为远程办公的白热化,将让它对于企业保护网络的重要性更加突显出来。”
好文章,需要你的鼓励
R语言在Tiobe 12月编程语言流行度指数中重返前十,排名第10位,占比1.96%。作为统计计算专用语言,R语言凭借在统计分析和大规模数据可视化方面的优势重新获得关注。尽管传统软件工程师对其语法和扩展性存在质疑,但R语言在大学和研究驱动行业中仍表现出色,在快速实验、统计建模和探索性数据分析领域具有独特优势。
MBZUAI和法国综合理工学院联合开发的SchED算法能让AI写作速度提升3-4倍。该算法通过监测AI生成文本的置信度,采用进度感知的动态阈值策略,在保持99.8%-100%原始质量的同时显著减少计算时间。实验覆盖多种任务类型,证明了算法的有效性和鲁棒性。
AWS在2025年re:Invent大会上展现出不寻常的防御姿态,面临证明其仍能引领企业AI议程的压力。随着微软和谷歌通过集成AI堆栈加强对CIO的影响力,AWS推出了新芯片、模型和平台增强功能。分析师认为AWS尚未成功构建统一叙述。Nova Forge是AWS最大的尝试,旨在解决其战略弱点:缺乏将数据、分析、AI和代理整合为单一路径的统一框架。但分析师指出,企业采用仍需大量工程投入,AWS仍是需要组装的零件集合。
西安交通大学研究团队发现,AI视觉语言模型容易受到功能词(如"是"、"的"等)的干扰而遭受攻击。他们开发了功能词去注意力(FDA)机制,让AI减少对这些词汇的关注。测试显示,该方法可将攻击成功率降低18%-90%,而正常性能仅下降0.2%-0.6%。FDA无需额外训练即可集成到现有模型中,为AI安全防护提供了简单有效的解决方案。