2021年9月24日,由华中科技大学和浪潮共建的“新存储联合实验室”揭牌成立。这是业内首个以新存储为核心的联合实验室,将对数据存储产业和技术发展提供前瞻性洞察和工程化探索。华中科技大学副校长张新亮、计算机学院院长冯丹,浪潮信息存储产品线总经理李辉、存储首席架构师孙斌,以及数据存储学术专家、企业代表们共同见证了新存储联合实验室的成立。
华中科技大学副校长张新亮表示,“计算、存储、传输是计算机技术三大基石,在新基建大环境下,信息存储已成为关系国计民生的关键基础设施。”学界数十年厚积薄发所形成的新存储理论突破,为产业发展指明了方向,以浪潮存储为代表的厂商则推进工程应用实践,打磨完善新存储产品,为数字经济发展提供动力引擎。
华中科技大学和浪潮共建“新存储联合实验室”
新存储实验室缘起:以数据生产要素为核心的数字经济 需要新存储“基座”
数字经济成为全球GDP增长的核心驱动力,IDC预测到2022年全球65%的GDP将由数字技术推动。纵观产业发展,建设现代化经济体系离不开数据生产要素的开发和应用,产业数字化转型需要坚持以供给侧结构性改革为主线,加大数据生产要素的挖掘和利用、加快发展数字经济,推动实体经济和数字经济融合发展。
随着数字经济高速发展,数据中心正在加速与云计算、大数据、AI融合,加快从传统数据中心向新型数据中心演进。7月工业和信息化部印发《新型数据中心发展三年行动计划(2021-2023)》,明确用3年时间,基本形成布局合理、技术先进、绿色低碳的新型数据中心发展格局,其中新存储既是新型数据中心的基座、也是“无形”新型数据要素的“有形”载体。
继蒸汽机、电力、信息技术之后,人类踏入以产业数字化、智能化为代表的第四次工业革命。自动驾驶、8K超高清、VR/AR、元宇宙等层出不穷的新概念、新应用,对数据存储能力提出了极致要求:类脑研究每秒数据带宽高达100TB,1万辆自动驾驶汽车每天生成100PB数据、移动互联网每年用户接入流量1600亿GB。华中科技大学计算机学院院长冯丹表示,“新存储的根本挑战是要跟得上产业新应用、新场景需求。”随着AI新算力6年提升30万倍、100G以太和64G光交新网络技术实现突破,新存储如何获得能力提升成为新型数据中心建设的突破重点。
本次成立新存储联合实验室,正是为了洞察新型数据中心需求,探索新架构、新算法,以新存储来应对智慧应用和数字化技术带来的巨大变化。华科在信息存储方面有坚实的研究基础,浪潮存储是全球前五且增长最为强劲的存储厂商,双方强强联合构建“新存储联合实验室”。实验室基于七大极致技术,构建以新存储平台为核心的数据系基础设施,用三年时间在新型存储系统架构、存储高性能、存储安全与高可靠性技术等领域开展研究,为数字经济和数据产业发展创造价值。
“面对学界前沿的探索,企业是来做接力棒的”,浪潮信息存储产品线总经理李辉表示。在学术界,高校、研究所有很多研究走在了前面,像华中科技大学在基础技术研究、新技术方向、闪存介质、算法、协议等方面有很多突破。借由新存储联合实验室,华中科技大学和浪潮将把科研领域的创新和突破拿到存储产品开发上,在工程中实践应用,把技术落地到产品上,最终能够到达用户、到达产业界。通过新架构、新算法等方面的研究合作,新存储联合实验室将创造更大的科研价值、产品价值和应用价值,更好地促进数据存储产业繁荣和发展。
构建“产学研”共同体 加速新技术转化
作为全球前五的存储厂商,浪潮存储高速成长背后离不开产学研伙伴的支持。浪潮存储在全球建立五大研发中心,与全球产业链伙伴协同创新,累计为存储核心技术攻关投入数十亿研发经费,推出了具有强大竞争力的存储产品。其中在SPC-1全球基准测试中,浪潮存储三年六次登顶,实现从集中式全闪、分布式全闪霸榜到总榜夺冠“大满贯”。未来面向新数据时代,浪潮存储将加大分布式、集中式全闪两大平台,以及企业级SSD新技术研究投入,与华中科技大学等高校、科研机构共建产学研共同体,释放数据生产要素价值,加速数字化转型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。