ZD至顶网服务器频道 12月11日 编译:Facebook人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
Facebook的内部设计项目享誉业内,无论是简单地改善新闻推送(News Feed)算法抑或是为旗下的全球数据中心设计自主开发的全新硬件都做得不错。
全球最大的社交网络Facebook也不断对开源社区作贡献,日前传来的最新消息印证了以上两点,总部设在了加州门洛帕克的Facebook本周宣布计划开源旗下的人工智能(AI)硬件。
Facebook工程师Kevin Lee和Serkan Piantino周四在博客中强调表示,该款全新的开源AI硬件比市面上现成的产品更加有效和灵活,因为这些服务器在数据中心内可基于开放计算项目标准运行。
Lee和Piantino做了如下的解释,“许多高性能计算系统运行时需要特殊冷却设施和其他独特的基础设施,我们对新的服务器在散热和电源效率方面进行了优化,因此这些服务器可以在我们以室外空气制冷的开放计算标准数据中心里运行。”
该款新一代硬件代号为“Big Sur”,是专为训练神经网络设计的。该技术除了与AI有关系外,通常也与机器学习或深度学习有关。
芯片制造商Nvidia在过去一年里也加大了推出深度学习产品组合的力度,两家公司因而在这个项目上联手,该项目涉及到不少有待解决的东西。
Facebook号称是第一家采用Nvidia上个月推出的的Tesla M40 GPU加速器的公司。威力强大的GPU M40主要用于部署深层神经网络,是驱动Big Sur 平台和开放式机架兼容硬件的关键。
有了M40的底气,Facebook工程师称Big Sur 的速度是Facebook老产品的两倍,具有很大潜力,能够以两倍的速度训练大一倍的神经网络。
Nvidia公司还强调,在Facebook向开放计算项目提交了设计资料后,Big Sur将成为第一个为机器学习和人工智能研究开发的计算系统。
Facebook全球用户基础继续增长(截止9月30日已经达到15.5亿的月活跃用户),因而收集到的数据不断增加,从中获取的信息也可能不断膨胀。
社交媒体巨头Facebook似乎充分利用了这一点,旗下的人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
好文章,需要你的鼓励
在新任CIO Mark Sherwood的引领下,Wolters Kluwer借助多云战略、人工智能创新与信息安全管理,实现从传统出版向科技型企业的全面转型,加速全球业务落地与数字升级。
西部数据在Computex展会上发布了新款Ultrastar Data102 JBOD和OpenFlex Data24 4100 EBOF,升级了开放组合兼容性实验室(OCCL 2.0),致力于构建开放灵活、软件定义的数据中心架构。
微软将 GPT-4o 图像生成功能融入 Microsoft 365 Copilot,用户可在 Word、Excel、Outlook 等应用中直接创建与编辑逼真图片,此更新同时面向企业和普通用户,拓展了创意工具的边界。
Nvidia 首席执行官黄仁勋宣布通过全新 NVLink Fusion 系统,让数据中心客户可同时采用 Nvidia 与其他厂商的芯片,实现系统定制与竞争共存,巩固公司在 AI 领域的核心地位。