2月24~28日,第24届高性能计算机体系结构会议(HPCA2018)在奥地利首都维也纳隆重举行。在此次计算机体系结构领域的学术顶级会议上,中科院计算所高通量中心主任、中科睿芯董事长范东睿研究员带队向国际同行报告了中国在高通量计算研究领域的重要成果“面向数据中心高通量应用处理的众核处理器”,受到了广泛关注,尤其是工业界的赞誉。同题论文被HPCA 2018录用发表。
“高通量计算(HTC)核心芯片的设计在HPCA这种顶级会议发表,是中科院计算所提出的高通量计算研究方向的一次重要时刻,这标志着国际上对高通量基础研究的认可与重视。”范东睿说,随着数字时代的推移与智能时代的来临,大数据处理对计算的需求面临着从HPC(高性能计算)向HTC的变迁,HTC应用的爆发已经到来,HTC系统将集成AI等新计算特征引领时代技术方向。
作为高通量计算技术的奠基人,中科院计算所所长、计算机学会副理事长孙凝晖研究员指出:未来计算的世界,将越来越清晰地划分为两个阵营,一支是以传统做“高性能计算”为基础的产业力量,会继续以改良的方式去被动适应新时代高通量应用的需求变化;还有一支是引领“高通量处理”技术的新生力量,比如中科睿芯和高通公司推出的全新的高通量众核处理芯片与高通量处理系统。中科院计算所在此方向有长达十年的大规模投入与研发,现在到了贡献产业贡献国民经济的时刻。
“高通量计算的技术核心是‘体系结构级的数据流思想’,强调高通量、强实时、低延迟以及易扩展等特征,天生适合‘吞噬’海量大数据。”范东睿介绍说,高通量计算的处理方式适用于互联网新兴应用负载特征,可在强时间约束下处理高吞吐量请求,呈现出对数据的一种“吞噬效果”。
人类产生的数据量日益惊人。据IDC最新报告显示,到2025年,人类创造的数据量将达到163ZB(1ZB=1000EB),是2016年的10倍。
“人类将彻底淹没在数据之中,数据的实时处理对瞬时吞吐提出了更高的要求,传统的高性能处理器已经无法满足未来数据中心的负载特征,仅靠设备的堆积已经无法真正解决问题。”范东睿举例说,诸如Google、Facebook这样的新兴互联网公司,需要数据中心能够提供亿级并发请求访问的能力,同时保障QoS。因此,数据中心应用将从以前的“求快”变为“求多”,服务器处理器芯片也相应地从传统追求单个任务的“快”,变为单位时间处理任务数量的“多”。
相较于传统高性能处理器,高通量处理器更注重单位时间任务处理量的提升,特别适用于解决数据中心任务相对独立且访存比例大的难题。而在大数据时代,数据处理效率是系统最关键的指标。
据Synergy Research最新报告,2017年全球超大规模数据中心数量由300家增至390家,且2018年没有丝毫放缓的迹象。此外,绝大多数超大规模数据中心仍位于美国,占全球44%,遥遥领先于位居第二的中国(8%),国内数据中心需求仍将呈爆发式增长。这从另一个角度说明,我国在大数据处理核心引擎上面还是很落后的,我国的大部分工作都集中在应用层模仿与创新,在计算机体系结构核心层的技术努力非常欠缺,核心技术基本都是采用美国的方案。
中科睿芯李文明博士在会议上做SmarCo报告
高通量计算擅长将“数据在流动中被处理”,这有效避免了反复访问存在效率与能耗上的损失。中科院计算所副研究员叶笑春博士解释说,像人脑一样,数据流思想擅长“并行”和“不规则运算”,这从根本上解决了海量数据处理多样性的问题。同时,与人工智能契合的数据流思想,也为研制具有通用性、高通量特性的普适人工智能芯片奠定了基础。叶笑春介绍说,中科睿芯研发的最新一代面向数据中心高通量应用处理的众核处理器SmarCo,相对于传统高性能处理器在能效比方面有一个数量级以上的提升。
相较于GPU,高通量芯片在AI、图计算、数据分析、区块链等方面有着显著的性能优势。中科睿芯将发挥在高通量体系结构研究领域的优势,设计高通量整体解决方案,为智能时代提供最直接的高通量计算产品和服务。
好文章,需要你的鼓励
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
亚马逊云服务宣布投资500亿美元,专门为美国政府构建AI高性能计算基础设施。该项目将新增1.3千兆瓦算力,扩大政府机构对AWS AI服务的访问,包括Amazon SageMaker、Amazon Bedrock和Claude聊天机器人等。预计2026年开工建设。AWS CEO表示此举将彻底改变联邦机构利用超级计算的方式,消除技术障碍,助力美国在AI时代保持领先地位。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。