当量子计算技术最终盛放之时,将给全世界带来难以想象的创新助力。但截至目前,量子计算仍仅存在于IBM、谷歌和微软等科技巨头的研究实验室内。企业和研究机构已经投入数十亿美元提升量子系统容量,而且在未来几年或几十年内,相信这项技术将会跃过“量子霸权”的龙门。但大规模量子系统的奇迹,也可能危及关键信息系统的安全。为此,包括IBM在内的各方研究人员正努力开发能够抵御这些攻击的全新安全算法。
量子之下的威胁阴影
虽然量子能够解决远超现今可能的计算挑战,不过一旦量子计算系统在规模、质量和速度等方面发展成熟,其破解大质数因数的能力也将令它成为颠覆现有网络安全体系的根本性隐患。届时,每个计算机系统、每比特“安全”数据都可能成为掌握量子之力的恶意黑客的囊中之物。世界经济论坛“估计,在未来10到20年内,全球将有200亿台数字设备需要通过升级或迭代获得新的抗量子加密通信能力。我们建议各组织从现在起就开展相关规划。”
现在唯一能够让人心安的,就是当前量子系统的体量还非常有限。2019年的一项研究表明,一台拥有2000万量子比特的计算机需要8个小时才能破解现代加密技术。而现有量子计算机还处于100量子比特这个量级。虽然这意味着威胁短时间内还不会成真,但我们也需要意识到,恶意黑客并不需要坐等大规模量子系统的实现。他们可以采取“先窃取、后破解”的方式策动潜在的未来安全威胁。因此,组织应尽快部署量子安全防护,最大程度降低长远风险。
抢先一步,阻止量子攻击
因此,美国商务部下辖的国家标准与技术研究院(NIST)一直在寻找既安全又高效的量子安全算法。毕竟我们需要保证自己使用的笔记本电脑、汽车和手机,也能抵御来自量子时代恶意黑客的攻击。经过四轮提交之后,NIST从82种候选方案中选取了4种算法,其中3种均出自IBM研究院之手。所有提交内容均经过政府机构、学术科学家和数学家的行业评审。目前相关工作已经接近尾,NIST预计将在2024年年内发布基于这4种算法的安全新标准。
NIST发起的这波算法竞赛涵盖了量子攻击指向的两个方面:公钥封装(用于公钥加密与密钥生成)和数字签名(用于身份认证和不可否认性)。对前一个问题,NIST选择了CRYSTALS-Kyber算法。在签名方面,NIST的选择则是CRYSTALS-Dilithium、FALCON 和 SPHINCS+,其中 CRYSTALS-Dilithium 作为签名类别中的主要算法。
电信行业正加紧解决量子安全问题
9月29日,GSMA宣布成立后量子电信网络工作组,IBM与沃达丰为初始成员,负责协助制定政策、监管与运营商业务流程,希望能在未来的量子时代下加强电信保护能力。由于几乎所有组织和部门都在互联网上开展商业活动,且全体互联网流量由全球约800家运营商共同承载,因此电信行业有望成为理想的量子防护起点。我们预计其余行业也将陆续跟进,特别是银行、政府和医疗保健等领域。
IBM为z16系统添加量子安全设计
鉴于潜在风险的严峻性,以及IBM Z系统在安全关键型应用程序中的优势地位,蓝色巨人决定在最新的z16大型机中使用CRYSTALS-Kyber和CRYSTALS-Dilithium 算法,借此实现面向未来的数字签名支持。z16将跨多个固件层实现此算法,帮助保护关键业务基础设施和数据免受未来可能出现的量子攻击影响。IBM还曾表示,他们正努力将这些新方法推向更为广阔的应用市场。
这也让IBM z16成为新款量子安全服务器。
此外,IBM还开发出多步骤流程,以帮助客户快速实现量子安全。该公司与客户合作,共同确定他们在哪些方面易受量子攻击的影响、评估密码成熟度与可靠性,并确定近期可实现的密码目标和相关项目。客户实际面临的风险,具体取决于其处理的应用程序/数据类型,以及当前密码保护状态。
总结
对于全球信息安全而言,量子计算似乎还只是种遥远而抽象的风险。然而,量子技术将不可避免地持续进步。凭借“先窃取、后破解”的方式,恶意黑客的压力已经让供应商和IT组织感受到量子时代的隐隐威胁。IBM选择在z16大型机中纳入保护技术,加上IBM研究院在为NIST量子安全竞赛贡献的三种顶尖算法,都彰显出蓝色巨人在应对挑战中的卓越贡献。
除了NIST批准的算法之外,IBM还在努力实现“加密敏捷性”。除帮助组织替换无法适应量子时代的现有算法之外,还将调整具体安全实践,确保在后量子威胁出现时保持弹性。通过加密可观察性,未来的用户将能够对加密相关安全项目开展持续监控和操作,帮助整个世界顶住那些掌握几乎无限算力的强大恶意黑客。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。