至顶网服务器频道 06月19日 新闻消息(文/李祥敬):按部就班的ISC2017如期在德国法兰克福举行,备受瞩目的TOP500也被公布,其中有几个变化值得关注。
第一,来自无锡国家超级计算中心的Sunway TaihuLight(神威太湖之光)毫无悬念卫冕冠军。
第二,广州国家超级计算机中心的天河2号排名第二,在2016年之前,其实这个“老二”连续三年位列TOP500榜首。
第三,瑞士国家超级计算中心(CSCS)的Cray XC50系统名列“探花”,这主要是其借助NVIDIA Tesla P100 GPU,使得其Linpack性能翻了一倍。
第四,看到前三名,“米国去哪儿了”?这也是历史上第二次美国未能进入TOP500榜单的前三。上次是1996年,当时三个日本系统占据了前三名。不过,在TOP500中,从总数看,美国仍然是第一名,169台;接着是中国,160台。然后是日本有33台超级计算机,德国是28台,法国17台,英国17台。
第五,需要注意的是前十中,Cray和IBM BlueGene/Q系统,以及富士通,散落在前十名榜单中。
第六,英特尔继续是TOP500芯片的主要供应商。至强或至强Phi处理器能为TOP500系统中的464台提供支持。 IBM Power处理器占据21席,而AMD Opteron CPU则存在于六个系统中。
第七,在加速器/协处理器技术方面,最受欢迎的是NVIDIA GPU,共有74个系统使用,然后是Xeon Phi协处理器,共有17个系统在使用。
第八,对于系统互连,以太网和InfiniBand仍然是最流行的技术。以太网在207个系统中存在;InfiniBand存在于178个系统中。
好文章,需要你的鼓励
这项研究揭示了大语言模型在学习推理时对噪声奖励的惊人适应力。研究表明,即使有40%的奖励信号被故意颠倒,Qwen-2.5-7B模型仍能将数学题准确率从5%提升至72%。更惊人的是,仅奖励模型使用关键推理词组(如"首先,我需要..."),而不验证答案正确性,也能达到70%以上的准确率。研究者提出的推理模式奖励(RPR)不仅能让模型在数学任务中表现出色,还能有效校准开放性任务中的噪声奖励模型,提升较小模型的推理能力。这表明大模型在预训练阶段已掌握了推理能力,强化学习主要帮助它探索有效的推理模式。
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
Yale大学自然语言处理实验室研发的Table-R1模型突破性地将推理时间缩放技术应用于表格推理任务。研究团队通过两种方法提升模型能力:从DeepSeek-R1模型的推理过程中学习,以及利用可验证奖励进行强化学习。实验表明,即使使用仅有7B参数的模型,Table-R1-Zero也能在13个表格推理基准测试中媲美甚至超越GPT-4.1等大型模型。该研究不仅证明了中小规模模型通过适当训练也能实现出色表现,还为数据分析、科学研究和决策支持系统等实际应用提供了新可能。