ZDNet至顶网服务器频道 11月19日 编译:英伟达公司在本届SC14大会上再一次成为关注焦点此次公布的下一代增量式升级方案Tesla K80为高性能计算GPU加速器带来新标准。
作为前代Tesla K40的继任者,此次亮相的K80不仅在名称上实现了翻倍,各项参数也迎来同等幅度的提升:性能表现乘二,内存传输带宽也乘二。不出所料,英伟达公司预计该产品将主要用于数据分析以及科学计算应用程序等领域(除了比特币挖掘,这属于GPU加速高性能计算的意外产物)。
K80号称能够在单精度浮点运算当中取得8.74万亿次的出色成绩,双精度浮点运算也有2.91万亿次的不俗表现。每块板卡搭载两个GPU,总计24GB GDDR5显存(每个GPU分得12GB),外加480 GB每秒的内存传输带宽。K80当中包含有4992个CUDA计算核心,而英伟达的GPU增强机制(即超频技术)以及动态并行处理技术也将得到支持。
与其它几家企业一样,英伟达公司目前也致力于在美国能源部的2017年Summit与Sierra性能巨兽项目中分得一杯羹,二者的既定处理能力水平分别为100千万亿次与300千万亿次。
在这笔总值超过3.25亿美元的合约当中,英伟达公司将负责为这两台基于IBM POWER架构的服务器设备提供GPU加速技术。
英伟达公司最近刚刚从美国能源部手中拿下一笔价值1800万美元的订单,旨在为该机构FastForward 2项目中的超大规模研究事务提供计算资源支持。美国能源部在最新一轮支出当中共计花费1亿美元,旨在到2020年建立起一套超大规模系统、且为其定下整体能源预算仅为20万瓦的宏伟目标。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。