“GreatLakes”高性能计算和人工智能超级计算机将助力于大学数千用户的科研和探索
2018年11月19日——Mellanox是面向数据中心服务器和存储系统的高性能、端到端智能互连解决方案的领先供应商,该公司今天宣布其包含基于ConnectX-6的HCA、Quantum交换机、LinkX线缆以及软件的新一代HDR InfiniBand解决方案将用于密歇根大学的新超级计算机。名为“GreatLakes”的新超级计算机将加强大学的研究活动,并为整所大学的数千名用户提供可扩展的高性能计算(HPC)和人工智能(AI)基础架构。
这台新HPC和AI超级计算机由Dell EMC部署,共包括13000个CPU核和一个由25600个GPU核,采用混合拓扑结构,通过Mellanox智能InfiniBand网络互连。两个单元的综合性能超过了千万亿次。
“访问高性能计算资源是密歇根大学丰富的计算生态系统的重要组成部分,”密歇根大学信息技术副校长兼首席信息官Ravi Pendse表示。“机器学习和精准健康等许多新兴领域的研究人员将会通过使用Great Lakes得到计算性能的提升。”
“Dell EMC非常高兴与密歇根大学及我们的技术合作伙伴一起合作,将这一创新的高性能系统带给这样一个强大的研究人员社区,”Dell EMC高性能计算副总裁Thierry Pellegrino表示。“此Grea tLakes集群将极大地提升性能、吞吐量和响应能力,以缩短密歇根大学的研究人员在人工智能、基因组学和生物科学等一系列学科的重大发现中所需的时间。”
“我们为看到世界上第一台基于Mellanox HDR InfiniBand ConnectX-6 HCA和Quantum交换机的超级计算机诞生感到自豪,”Mellanox Technologies市场副总裁Gilad Shainer表示。“InfiniBand支持的智能网络计算加速引擎将为密歇根大学用户的HPC和AI应用提供最高的性能、效率和可扩展性。”
Great Lakes超级计算机计划在2019年上半年满负荷运行,并提供给密歇根大学社区使用。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。