8月24日,中国科学院《互联网周刊》发布“2023信创产业分类排行”榜单,宏杉科技凭借在信创存储领域深厚的技术积累与领先的行业实践,在2023信创存储企业排行中,创新排名并列第一,综合排名位列前二。
信创产业的核心在于通过行业应用拉动构建国产化信息技术、硬件底层架构体系和全周期生态体系,解决核心技术关键环节“卡脖子”的问题。本次2023信创存储企业排行重点考量企业的技术实力、业内口碑、成长性、品牌力以及创新案例,从产品、生态、创新等维度综合遴选信创存储赛道中具有代表性的企业、组织。上榜企业具备市场前瞻性与头部效应,为国内信创存储进一步深化发展提供行业参考与实践方向。
成熟可靠的信创产品与解决方案
宏杉科技作为国产存储领导品牌,始终坚持以自主创新为产品研发的重要战略,先后实现了SAN、分布式、备份、云及超融合等全系列产品的安全可用,并推出全IP数据中心解决方案,全方位守护用户存数、用数安全。
产品架构层面,宏杉科技信创存储基于成熟通用存储产品设计,实现整机架构的“技术移植”,确保产品成熟完善、稳定可靠;产品软件层面,采用自研ODSP软件平台,实现存储设备的统一管理,高级软件功能100%移植,轻松满足用户的各类应用需求。
基于自研iNOF技术,宏杉科技推出全IP数据中心解决方案,整体方案与国内外主流服务器、操作系统OS、NIC保持兼容,用户数据中心各组件均可实现国产化替代。方案以信创存储为底座,通过零丢包、低延迟、高吞吐、无限扩展性的NVMe over RoCE网络实现对FC SAN的全面替代,完成数据中心端到端IP化,切实解决核心技术“卡脖子”问题,保障网、算、存产业链供应链安全。
广泛的信创合作伙伴生态
存储是数字经济的重要基石,是数实融合与产业变革的地基与沃土。当前,数字化转型与产业的智能化升级已成为千行百业共同的发展方向,与传统信息技术产业相比,信创产业更加强调生态体系的打造,信创存储需要上下游合作伙伴的通力合作。国产化技术创新落地,是助力用户真正实现产业数字化跃迁、跨越数字鸿沟、塑造技术自信的重中之重。
多年来,宏杉科技与合作伙伴紧密协作、携手创新,共同加速各行业数字基础设施的国产化转型之路。在产品兼容性与技术认证方面,宏杉科技信创存储产品拥有诸多国家资质认证证书,并与银河麒麟、中标麒麟、凝思等国产主流操作系统,达梦、人大金仓、南大通用等国产主流数据库系统,EasyStack、方物等国产主流平台等达成兼容认证,打造了广泛、可持续的信创合作伙伴生态圈,以创新、质造,为数字中国的存储建设提供强有力的技术支撑。
丰富的信创存储落地经验
2018年,信创被纳入国家战略,呈现“2+8”发展模式,随后扩展至更多行业,演变为“2+8+N”应用体系。当前,信创产业的驱动力正在由政策引导向市场需求转变,以金融、电信行业的信创替代为引领,各行业的国产化替代进程正在不断加速。得益于成熟可靠的信创存储产品与方案、丰富广泛的生态合作,宏杉科技信创存储已在政府、金融、运营商、交通、教育、医疗、电力等关键领域实现广泛落地。
在政府,宏杉科技为国家工业信息安全发展研究中心提供中高端信创存储,支撑工业互联网安全应用平台关键业务系统的稳定运行;在金融,宏杉科技为中国工商银行、中国银行提供多套高端信创存储,为金融数据安全打造稳固基石;在运营商,2023年宏杉科技高端信创存储先后入围中国移动、中国电信集采项目,为运营商海量数据提供安全稳固的存储底座支撑……
作为一站式数据存储专家,宏杉科技深耕存储领域13年,始终坚持存储创新研发,拥有品类丰富、深受用户信赖的企业级存储产品,先后成为信息技术应用创新工作委员会成员单位、光合组织副主任单位。未来,宏杉科技将继续加大研发创新力度、洞察用户需求,与信创生态伙伴紧密合作,为各行业提供更加安全可靠、高效易用的数据存储方案,助力信创存储在数字化应用道路上加速升级。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。