美国能源部(U.S. Department of Energy)将与英特尔合作打造一台新的大型超级计算机,并且该计算机在计算能力方面将超越目前现有最强大的系统。
英特尔今天表示,这套还在计划中的系统名为Aurora,将在2021年上线时,全面发挥其性能表现。
1 exaflop用于表示一百亿亿次浮点运算,也就是10的18次方。这是目前全球最快的超级计算机(也是由美国能源部运营的)每秒计算性能的5倍。
美国能源部已经拿出5亿多美元预算用于打造Aurora。英特尔将与超级计算机制造商Cray合作开发该系统,使用尚未发布的下一代处理器作为构建块。
英特尔将把自己下一代至强CPU作为Aurora超级计算机的核心,此外还计划为该系统配备预计在明年发布的Xe系列GPU。目前我们对Xe系列GPU知之甚少,除了该芯片将采用10纳米架构。
美国能源部决定在Aurora系统中采用英特尔GPU,代表了该机构对英特尔公司难得的支持。明年上市发布时,Xe系列将面对来自Nvidia和AMD产品的竞争,因为这些产品已经在图形卡市场保持了长达二十年的双巨头垄断。全球最强大的超级计算机将采用Xe芯片,这一事实可能会帮助英特尔更容易说服潜在买家。
除了采用英特尔即将推出的芯片之外,Aurora还将采用另外两款尚未发布的英特尔技术。一个是Optane DC永久性内存的未来迭代,而另一个是英特尔在去年12月预览的Intel One API,该API旨在简化那些同时使用CPU和GPU的应用开发过程。
英特尔将把Aurora交付给美国能源部位于芝加哥的阿贡国家实验室。该机构计划将该系统用于各种研究应用,从测试药物的有效性,到“极端规模”宇宙学模拟。
美国并不是唯一一个打算打破百亿亿次计算极限的国家。日本RIKEN研究所和富士通公司都把目光瞄准了在2021年之前打造采用ARM芯片的百亿亿次级超级计算机系统。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。