ZD至顶网服务器频道 12月11日 编译:Facebook人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
Facebook的内部设计项目享誉业内,无论是简单地改善新闻推送(News Feed)算法抑或是为旗下的全球数据中心设计自主开发的全新硬件都做得不错。
全球最大的社交网络Facebook也不断对开源社区作贡献,日前传来的最新消息印证了以上两点,总部设在了加州门洛帕克的Facebook本周宣布计划开源旗下的人工智能(AI)硬件。
Facebook工程师Kevin Lee和Serkan Piantino周四在博客中强调表示,该款全新的开源AI硬件比市面上现成的产品更加有效和灵活,因为这些服务器在数据中心内可基于开放计算项目标准运行。
Lee和Piantino做了如下的解释,“许多高性能计算系统运行时需要特殊冷却设施和其他独特的基础设施,我们对新的服务器在散热和电源效率方面进行了优化,因此这些服务器可以在我们以室外空气制冷的开放计算标准数据中心里运行。”
该款新一代硬件代号为“Big Sur”,是专为训练神经网络设计的。该技术除了与AI有关系外,通常也与机器学习或深度学习有关。
芯片制造商Nvidia在过去一年里也加大了推出深度学习产品组合的力度,两家公司因而在这个项目上联手,该项目涉及到不少有待解决的东西。
Facebook号称是第一家采用Nvidia上个月推出的的Tesla M40 GPU加速器的公司。威力强大的GPU M40主要用于部署深层神经网络,是驱动Big Sur 平台和开放式机架兼容硬件的关键。
有了M40的底气,Facebook工程师称Big Sur 的速度是Facebook老产品的两倍,具有很大潜力,能够以两倍的速度训练大一倍的神经网络。
Nvidia公司还强调,在Facebook向开放计算项目提交了设计资料后,Big Sur将成为第一个为机器学习和人工智能研究开发的计算系统。
Facebook全球用户基础继续增长(截止9月30日已经达到15.5亿的月活跃用户),因而收集到的数据不断增加,从中获取的信息也可能不断膨胀。
社交媒体巨头Facebook似乎充分利用了这一点,旗下的人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。