在全球科技创新竞争不断加剧的背景下,加快构建以信创产业为主要内核的未来数字产业体系,是全面推动地区产业结构升级转型和新基建的重要举措。4月8日,龙芯中科在2023中国·鹤壁信息技术自主创新高峰论坛上发布了3D5000服务器CPU,邀请中国工程院院士郑伟民讲述了信创领域现阶段的痛点与机遇。龙芯中科董事长胡伟武透露了龙芯下一步生态建设的布局。
郑伟民:信创领域有很多关键技术还需攻关
信创是国家重要战略部署,将有效提升我国信息化的自主可控水平,为我国带来巨大历史机遇,但也伴随着严峻的挑战。目前,信创已取得很大成绩,但还有很多关键技术需要攻关。
郑伟民介绍,目前,国内信创产业发展不断向前推进,呈现四大现状。
在基础硬件方面,我国已形成CPU技术路线,但在设计制造环节面临“卡脖子”问题。
基础软件方面,国产桌面级操作系统市场份额逐年提升,麒麟和统信占领操作系统领先地位。数据库主要集中在金融、电信、政府、制造、交通五个行业。
应用软件方面,市场规模持续扩大,协同办公市场规模在2021年达到264.2亿元人民币。而管理软件强,工程软件弱,低端软件多,高端软件少的现状却需持续发展演进;
信息安全方面,市场规模持续扩大,2021年达926.8亿元人民币,但产业集中度较低,竞争格局较为分散。
中国工程院院士 郑伟民
“国际竞争形势,本土化势在必行,国家这方面前所未有的重视。”郑伟民肯定地说。
龙芯作为芯片本土化的领军企业,通过多年积累,已在各行业成熟落地应用,在国产化技术路线中,技术实力,综合性名列前弟。在助力国家全面国产化进程做出卓越贡献。郑伟民坦言,龙芯在设计初期,就从架构方面开始突破,龙芯使用的自研架构loongArch,是“妥妥的”纯中国制造。完美避开世界两大架构。龙芯还在自己的架构基础上,开始搭建自己的系统生态。
胡伟武:以“四两拨千斤”开启生态建设新征程
基于二十余年的技术积累,龙芯基于自主指令系统的基础软件生态基本建成,基于自主IP核CPU性能达到市场主流产品水平,基于自主工艺可以基本满足自主CPU生产要求。当前,龙芯已经开启了生态建设的新征程,构建与Wintel体系和AA体系“三足鼎立”的自主信息体系新格局。
“我想以‘四两拨千斤’来形容,即用较小的代价取得产业集聚发展。其中,‘四两’就是打造产业生态所需的四种要素,分别是一个‘自主+开放’的龙芯中科平台、一定规模的市场牵引、一个产业专班、一套引进和培养企业相结合的政策体系。”龙芯中科董事长胡伟武强调。
龙芯中科董事长 胡伟武
提及下一步规划,胡伟武说,下一步,龙芯中科将充分发挥在技术及生态方面的优势,在鹤壁全域打造基于龙芯平台的国产计算机应用信创工作样板,吸引带动龙芯产业生态链上下游企业集聚,形成“全场景+一基地+五中心”龙芯产业生态。
张戈:3D5000CPU无需授权、超强算力、性能卓越
当日,龙芯中科副总裁张戈主持发布了龙芯3D5000服务器CPU。
“龙芯3D5000通过芯粒(chiplet)技术把两个3C5000的硅片封装在一起,是一款面向服务器市场的32核CPU产品。”张戈介绍道。
龙芯中科副总裁 张戈
据悉,龙芯3D5000内部集成了32个高性能LA464处理器核,频率2.0GHz,支持动态频率及电压调节;片内集成64MB片上L3共享缓存以及支持8哥72位DDR3200内存控制器,支持ECC校验;搭载5G个HT3.0高速接口,支持自研桥片及双路、四路CPU扩展支持。3D5000采用LGA-4129封装,TDP功耗为300W,典型功耗150W。
龙芯3D5000服务器CPU
性能方面,3D5000可以搭配自研的龙芯7A2000桥片支持2路、4路CPU,单台服务器可以做到128核。龙芯3D5000的8通道DDR4内存的Stream性能超过50GB,桥片龙芯7A2000比上代性能提升400%;3D5000支持国密算法,内嵌独立安全模块,高性能加密解密效率可达5Gbps以上,足以替代高性能密码机。
龙芯3D5000服务器CPU规格参数
应用方面,基于3D5000,龙芯推出了2路、4路服务器参考设计,CPU2006性能可达800、1500分以上,浮点性能可达2T、4TFLOPS。
“龙芯3D5000采用龙芯自主指令系统龙架构,无需国外授权,具备超强算力、性能卓越的特点,可满足通用计算、大型数据中心、云计算中心的计算需求。龙芯3D5000的推出,标志着龙芯中科在服务器CPU芯片领域进入国内领先行列。”张戈说。
龙芯3D5000的发布是一个重要的里程碑,标志着中国在处理器技术领域取得了重要的进展。据悉,这款处理器的发布引起了业内人士的高度关注。有业内评测人员指出,3D5000的SPEC2006分数超过425,浮点部分采用了双256bit向量单元,双精度浮点性能可达1TFLOPS(1万亿次),是典型ARM核心性能的4倍。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。