9月27日,中科曙光与量子网络在北京举行战略合作签约仪式,双方将携手产业链合作伙伴共同打造量子通信产业生态圈。此次合作是我国量子通信产业化推进的重要实践,亦标志着曙光公司作为信息产业的“国家队”正式入局量子通信。签约当日,双方联合研发的全球首款基于量子通信的云安全一体机QC Server重磅发布,助力我国继量子保密通信在科研领域走在世界前列之后,在应用和支撑领域又一次全球领先。
中科曙光和量子网络签署战略合作协议
肩负重任 “国家队”当仁不让
当前,我国量子通信技术发展处于世界领先地位,中国科学技术大学潘建伟院士带领的科研团队在量子通信技术研发上不断实现技术突破,获得国际学界广泛认可。在产业界,我国在核心技术及关键器件生产、网络部署及应用、知识产权积累方面进行了积极部署,这其中,中科院系背景的“国家队”科研团队和企业成为中流砥柱。
国科量子通信网络有限公司(简称“量子网络”是由中国科学院控股有限公司(简称“国科控股”)联合中国科学技术大学共同发起成立的国有控股高科技企业,以面向下一代信息技术发展趋势和国家战略需求,引领量子安全互联网的应用和发展为愿景,致力于成为国际领先的量子通信综合服务提供商。
而曙光公司是有着中科院系背景的国内领先的信息系统提供者,在高性能计算、云计算等领域拥有强大的技术实力和产业化经验,理应在快速拓展的量子通信产业中占据重要的一席。近年来,在科研力量和资本市场的双轮驱动之下,中科曙光在先进计算和高端计算领域不断开疆拓土,从混合架构的超千万亿次的超级计算机曙光6000星云系统,到全新架构的高性能计算机“硅立方”系列,再到面向特定场景的专用计算平台,曙光着力构建“更加完整的计算”,已成为计算领域不可取代的“中国名片”。
“投身量子通信产业这一尖端科技的发展大潮,致力于量子通信产业生态圈的构建,是曙光肩负起信息产业国家队的责任、为我国科技强国加油助力的又一体现,曙光愿与中国量子通信产业一起起航,共赢量子信息时代。”曙光公司副总裁任京暘表示。
全球首款 解决数据通信安全
随着全球范围内对量子计算的进一步深入探索,将对现代信息保密体系带来“毁灭性冲击”的量子计算机或将在不远的将来变成现实。“面对同一个大数分解难题,经典计算机需15万年才能破解,而量子计算机应用Shor算法只需1秒。一旦量子计算机研制成功,现有的基于大数分解的RSA密钥(一种主流的非对称密钥)将无密可保。”曙光公司副总裁曹振南表示,面对量子计算的冲击,发展可实现“无条件安全”的量子通信产业迫在眉睫。全球首款基于量子通信的云安全一体机QC Server应运而生。
中科曙光副总裁曹振南介绍量子通信云安全一体机QC Server
由量子网络与中科曙光联合研发的QC Server,集成了基于量子通信的密钥管理系统和安全运营平台,搭载了基于量子通信的云计算操作系统。“QC Server重点提供与量子保密通信深度融合的云计算操作系统和云存储服务平台,并针对量子保密通信的应用场景提供基于自主知识产权的、从底层硬件到上层应用服务的云服务解决方案。”曙光公司副总裁曹振南谈到,QC Server搭载的量子密钥系统,具备一次一密、随机密码、不可分割、不可复制等特点,在保障通信安全的同时,也保障着云服务平台的整体安全。
基于QC Server的曙光城市云,可打造全方位保障的安全云服务体系,为应用服务、数据传输、运维管理提供无条件的安全保障。基于QC Server的曙光私有云,能为用户提供基于量子通信的SDK/API接口,使用户的应用系统与曙光云计算、量子通信技术快速融合。
好文章,需要你的鼓励
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
毫无疑问,Agent,也就是智能体已经预定了今年的最火AI关键词。不知道明年会不会是AGI呢,既然OpenAI和Anthropic的预测都是在2027年左右。而在Agent领域,非常有发言权的一位就是吴恩达。LangChain前不久的开发者活动Interrupt上,LangChain创始人Harrison Chase邀请了吴恩达专门做了一场对话
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。