ZD至顶网服务器频道 06月21日 新闻消息:
PCIe接入形式的英伟达P100
英伟达公司已经推出了其Tesla P100加速芯片,采用PCIe卡形式且可接入标准服务器节点以支持人工智能与超级计算机级别的工作负载处理工作。
P100公布于今年4月在加利福尼亚州召开的英伟达GPU技术大会上:这款16纳米FinFET图形处理器在一块600平方毫米晶片上容纳有150亿个晶体管。其设计目标在于每秒实现万亿级别计算,适用软件包括神经网络训练以及天气与粒子模拟。这款GPU采用英伟达的Pascal架构,能够实现CPU与GPU之间的页面迁移。
每块P100包含4个每秒40 GB英伟达NVLink端口,分部接入GPU集群。NVLink为英伟达公司设计的高速互连机制。IBM公司的Power8+与Power9处理器皆支持NVLink,允许主机的Power CPU核心直接与各GPU相对接。
这些来自蓝色巨人的芯片主要服务于美国政府所拥有的各超级计算机及其它高负载设备。不过在民用领域,我们普遍使用x86处理器支撑后端工作负载。
时至今日,数据中心内的绝大部分计算处理器由英特尔公司提供;然而英特尔方面并不支持英伟达的NVLink,而且似乎也没有在这方面做出努力的计划。因此,英伟达方面拿出了自己的解决办法,即PCIe版本的Tesla P100卡,帮助服务器构建人员将加速处理器同其x86设备相结合。这意味着GPU能够通过NVLink实现彼此间的高速通信,同时经由PCIe总线接入主机CPU。
目前PCIe P100分为两种型号:其一HBM2堆栈内存为16 GB且内存传输带宽为每秒720 GB;其二成本更为低廉,HBM2内存为12 GB且内存传输带宽为每秒540 GB。二者皆采用PCIe gen-3 x 16通道以实现每秒32 GB传输能力。
二者在处理64位双精度运算与32位单精度运算时的持续性能水平分别为4.7万亿次与9.3万亿次;16位半精度运算则为18.7万亿次。这一水平略低于原始P100在双、单与半精度运算中的5.3万亿次、10.6万亿次与21万亿次。原因在于,PCIe卡的性能由于发热量的考虑而必须有所牺牲——毕竟我们不希望塞满了GPU加速节点的机架由于全力运转而被融化。
另外,NVLink P100的额定功率为300瓦,而其16 GB PCIe表亲的功率水平为250瓦,12 GB版本的功耗则更低。
顺带一提,如果大家希望在非NVLink服务器上使用全速、全功率Tesla P100,其实也是能够实现的:系统制造商能够在主机上添加PCIe gen-3接口,从而实现额外的性能提升。不过如果大家只希望使用PCIe,那么目前的低功耗、低性能PCIe选项已经非常理想。
“PCIe P100将成为主力系统——即大规模计算设备,”英伟达公司高级产品经理Roy Kim在接受采访时表示。他同时建议称,每个服务器节点可以接入4到8块该PCIe卡。
这些PCIe设备预计将在2016年第四季度正式推出,且面向克雷、戴尔、惠普、IBM以及其它英伟达合作伙伴发布。其最终定价将取决于经销商,但根据我们得到的消息,其价格会与目前的英伟达K80基本持平——后者的售价约为4000美元。
而在价值层面,英伟达方面告诉我们,P100 PCIe卡将在今年晚些时候作为欧洲各顶级超级计算机的构建组件,其中包括位于瑞士卢加诺国家超级计算中心的Piz Daint。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。