当量子计算技术最终盛放之时,将给全世界带来难以想象的创新助力。但截至目前,量子计算仍仅存在于IBM、谷歌和微软等科技巨头的研究实验室内。企业和研究机构已经投入数十亿美元提升量子系统容量,而且在未来几年或几十年内,相信这项技术将会跃过“量子霸权”的龙门。但大规模量子系统的奇迹,也可能危及关键信息系统的安全。为此,包括IBM在内的各方研究人员正努力开发能够抵御这些攻击的全新安全算法。
量子之下的威胁阴影
虽然量子能够解决远超现今可能的计算挑战,不过一旦量子计算系统在规模、质量和速度等方面发展成熟,其破解大质数因数的能力也将令它成为颠覆现有网络安全体系的根本性隐患。届时,每个计算机系统、每比特“安全”数据都可能成为掌握量子之力的恶意黑客的囊中之物。世界经济论坛“估计,在未来10到20年内,全球将有200亿台数字设备需要通过升级或迭代获得新的抗量子加密通信能力。我们建议各组织从现在起就开展相关规划。”
现在唯一能够让人心安的,就是当前量子系统的体量还非常有限。2019年的一项研究表明,一台拥有2000万量子比特的计算机需要8个小时才能破解现代加密技术。而现有量子计算机还处于100量子比特这个量级。虽然这意味着威胁短时间内还不会成真,但我们也需要意识到,恶意黑客并不需要坐等大规模量子系统的实现。他们可以采取“先窃取、后破解”的方式策动潜在的未来安全威胁。因此,组织应尽快部署量子安全防护,最大程度降低长远风险。
抢先一步,阻止量子攻击
因此,美国商务部下辖的国家标准与技术研究院(NIST)一直在寻找既安全又高效的量子安全算法。毕竟我们需要保证自己使用的笔记本电脑、汽车和手机,也能抵御来自量子时代恶意黑客的攻击。经过四轮提交之后,NIST从82种候选方案中选取了4种算法,其中3种均出自IBM研究院之手。所有提交内容均经过政府机构、学术科学家和数学家的行业评审。目前相关工作已经接近尾,NIST预计将在2024年年内发布基于这4种算法的安全新标准。
NIST发起的这波算法竞赛涵盖了量子攻击指向的两个方面:公钥封装(用于公钥加密与密钥生成)和数字签名(用于身份认证和不可否认性)。对前一个问题,NIST选择了CRYSTALS-Kyber算法。在签名方面,NIST的选择则是CRYSTALS-Dilithium、FALCON 和 SPHINCS+,其中 CRYSTALS-Dilithium 作为签名类别中的主要算法。
电信行业正加紧解决量子安全问题
9月29日,GSMA宣布成立后量子电信网络工作组,IBM与沃达丰为初始成员,负责协助制定政策、监管与运营商业务流程,希望能在未来的量子时代下加强电信保护能力。由于几乎所有组织和部门都在互联网上开展商业活动,且全体互联网流量由全球约800家运营商共同承载,因此电信行业有望成为理想的量子防护起点。我们预计其余行业也将陆续跟进,特别是银行、政府和医疗保健等领域。
IBM为z16系统添加量子安全设计
鉴于潜在风险的严峻性,以及IBM Z系统在安全关键型应用程序中的优势地位,蓝色巨人决定在最新的z16大型机中使用CRYSTALS-Kyber和CRYSTALS-Dilithium 算法,借此实现面向未来的数字签名支持。z16将跨多个固件层实现此算法,帮助保护关键业务基础设施和数据免受未来可能出现的量子攻击影响。IBM还曾表示,他们正努力将这些新方法推向更为广阔的应用市场。
这也让IBM z16成为新款量子安全服务器。
此外,IBM还开发出多步骤流程,以帮助客户快速实现量子安全。该公司与客户合作,共同确定他们在哪些方面易受量子攻击的影响、评估密码成熟度与可靠性,并确定近期可实现的密码目标和相关项目。客户实际面临的风险,具体取决于其处理的应用程序/数据类型,以及当前密码保护状态。
总结
对于全球信息安全而言,量子计算似乎还只是种遥远而抽象的风险。然而,量子技术将不可避免地持续进步。凭借“先窃取、后破解”的方式,恶意黑客的压力已经让供应商和IT组织感受到量子时代的隐隐威胁。IBM选择在z16大型机中纳入保护技术,加上IBM研究院在为NIST量子安全竞赛贡献的三种顶尖算法,都彰显出蓝色巨人在应对挑战中的卓越贡献。
除了NIST批准的算法之外,IBM还在努力实现“加密敏捷性”。除帮助组织替换无法适应量子时代的现有算法之外,还将调整具体安全实践,确保在后量子威胁出现时保持弹性。通过加密可观察性,未来的用户将能够对加密相关安全项目开展持续监控和操作,帮助整个世界顶住那些掌握几乎无限算力的强大恶意黑客。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。