《Akamai 2020年互联网状况/媒体行业中的撞库攻击》报告指出,20%的撞库攻击针对广大媒体公司
2020年7月21日——负责提供安全数字化体验的智能边缘平台阿卡迈技术公司(Akamai以下简称:Akamai)(NASDAQ:AKAM)发布的一份最新报告指出,在2018年1月到2019年12月间,整个媒体行业共遭受了170亿次撞库攻击。这份名为《Akamai 2020年互联网状况/媒体行业中的撞库攻击》(Akamai 2020 State of the Internet / Credential Stuffing in the Media Industry)的报告还发现,在报告期间内观察到的880亿起撞库攻击中,有20%针对的是媒体公司。
该报告显示,媒体公司备受犯罪分子的青睐,针对视频媒体行业的攻击同比增长了63%。此外,针对广播电视和视频站点的攻击分别同比增长了630%和208%。与此同时,针对视频服务的攻击增长了98%,而针对视频平台的攻击下降了5%。
针对广播电视和视频站点的攻击数量明显上升,这似乎与2019年点播媒体内容的激增相吻合。此外,2019年推出了两项大型视频服务,并通过消费者促销活动给予了大力支持。这些类型的站点和服务成了将其视为攻击目标的犯罪分子的重点关注对象。
Akamai安全研究员兼《互联网安全状况报告》作者Steve Ragan表示,媒体行业帐户对犯罪分子的大部分价值在于,通过入侵这些帐户,犯罪分子可以盗用付费内容等资产以及个人数据。Ragan在报告中指出:“我们观察到一种趋势——犯罪分子将来自媒体帐户的凭据与从当地餐馆获得的被盗奖励积分相结合,并以‘约会之夜’套餐的形式营销售卖这种违法商品。一旦犯罪分子掌握了被盗帐户中的地理位置信息,他们就可以对这些信息进行匹配,并以免费享受餐饮和电影作为诱惑出售这些信息。”
但是,视频网站并不是媒体行业中撞库攻击的唯一重点攻击对象。该报告指出,针对出版内容的攻击猛增了7000%。报纸、书籍和杂志均是网络犯罪分子的攻击目标。这就表明对于这类攻击而言,各种类型的媒体内容似乎都面临着同等风险。
到目前为止,美国是针对媒体公司的撞库攻击的最大来源地区,2019年共发生了11亿起,比2018年增长了162%。法国和俄罗斯分别以3.93亿起和2.43亿起的攻击位居第二和第三,与第一名美国的差距惊人。
印度是2019年遭受攻击最多的国家,共遭受了24亿起撞库攻击。紧随其后的是美国(14亿起)和英国(1.24亿起)。
Ragan解释道:“只要我们有用户名和密码,就会有犯罪分子试图盗用它们并利用其中有价值的信息。密码共享和循环利用显然是促成撞库攻击的两个最大诱因。对消费者开展良好的凭据安全教育对于抵御这些攻击至关重要,但最重要的还是需要企业部署更强大的身份验证方法,并确定适当的技术、方针和专业知识组合,从而在保护客户的同时又不会对用户体验产生不利影响。”
由于新冠肺炎疫情的爆发,《Akamai 2020年互联网状况/媒体行业中的撞库攻击》报告的发布时间从4月推迟到7月。额外的时间使得Akamai可以将2020年第一季度的数据添加到原始报告中。
最值得注意的是,在2020年第一季度,针对欧洲视频服务提供商和广播公司的恶意登录尝试大幅增加。在众多隔离措施开始施行后,3月下旬的一起针对单一服务提供商的攻击在24小时内共发起了近3.5亿次登录尝试。另外,该地区的一家广为人知的广播公司在一季度遭受了一系列攻击,攻击峰值高达数十亿次。
第一季度另一个值得注意的趋势是,共享报纸帐户免费访问权限的犯罪分子数量出现增加。撞库活动常用其作自我推广的手段,以此窃取遭到泄露的有效用户名和密码组合。
Akamai的研究人员还观察到,在整个第一季度中,被盗帐户凭据的费用有所下降,一开始的交易价格约为1到5美元,涵盖多种服务的套餐交易价格为10到45美元。随着新帐户和回收的凭据清单在市场中流通,这些价格有所下降。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。