至顶网 10月19日 新闻消息(文/任新勃): 2017年10月19日-21日,2017全国高性能计算学术年会(HPC China 2017)在安徽合肥举行。在大会的第一天,大会上发布了《2017年中国高性能计算机性能TOP 100 排行榜及简析》。
今年榜单一个特点是TOP100名总计有124套入围。(因为包括浪潮等有同一套高性能计算机被不同的公司采用。如上图,粉红色2都是同一套SA5212M系列的高性能计算机)
和去年相比较,前三名没有变化。部署在江苏无锡的超算中心的由国家并行计算机工程技术研究中心研制的超级计算机神威·太湖之光以十亿亿次(93.015 PFlops)测试性能排名第一。
部署在广州超算中心的“天河二号”超级计算机以33.86PFLOPS的测试性能位居第二名,“天河一号”则是以每秒2.566PFLOPS测试性能位居第三。
厂商份额方面,浪潮因为大量的互联网应用,以46套系统列第一。联想、曙光以22套并列第二。浪潮、联想和曙光国产三强合计90%份额。在这份榜单中,国产系统占TOP100系统份额的99%。
排除国家科研单位国家并行计算机工程技术研究中心、国防科大的科研研发,网络公司A采用的浪潮的高性能计算机SA5212H5在厂商里面性能排名第一。
今年TOP100里面有有22个都使用了NVIDIA TESLA P100 加速器。
2017年应用领域的热点,数据分析和机器学习,互联网和云计算。
通过对比2015、2016年,2017年基于数据分析和机器学习成为高性能计算的增长点。
体系架构中,万兆以太网成为主流。
16年来,高校首次没有入榜,未来也将不再见。因为未来高校将会采用云服务,而不会自建超算中心。
详细报告请大会结束后参考官方网站!
至顶网认为,随着人工智能、深度学习、以及大数据趋于融合,基于高性能计算的平台应用越来越广泛,HPC商用化在不断加速,高性能计算的计算能力必将会越来越应用于科研、工业、生活中持续为智能社会赋能。同时随着阿里云、腾讯云等云服务商推出超算云的服务,相信未来TOP100榜单将发生天翻地覆的变化。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。