ZD至顶网服务器频道 12月11日 编译:Facebook人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
Facebook的内部设计项目享誉业内,无论是简单地改善新闻推送(News Feed)算法抑或是为旗下的全球数据中心设计自主开发的全新硬件都做得不错。
全球最大的社交网络Facebook也不断对开源社区作贡献,日前传来的最新消息印证了以上两点,总部设在了加州门洛帕克的Facebook本周宣布计划开源旗下的人工智能(AI)硬件。
Facebook工程师Kevin Lee和Serkan Piantino周四在博客中强调表示,该款全新的开源AI硬件比市面上现成的产品更加有效和灵活,因为这些服务器在数据中心内可基于开放计算项目标准运行。
Lee和Piantino做了如下的解释,“许多高性能计算系统运行时需要特殊冷却设施和其他独特的基础设施,我们对新的服务器在散热和电源效率方面进行了优化,因此这些服务器可以在我们以室外空气制冷的开放计算标准数据中心里运行。”
该款新一代硬件代号为“Big Sur”,是专为训练神经网络设计的。该技术除了与AI有关系外,通常也与机器学习或深度学习有关。
芯片制造商Nvidia在过去一年里也加大了推出深度学习产品组合的力度,两家公司因而在这个项目上联手,该项目涉及到不少有待解决的东西。
Facebook号称是第一家采用Nvidia上个月推出的的Tesla M40 GPU加速器的公司。威力强大的GPU M40主要用于部署深层神经网络,是驱动Big Sur 平台和开放式机架兼容硬件的关键。
有了M40的底气,Facebook工程师称Big Sur 的速度是Facebook老产品的两倍,具有很大潜力,能够以两倍的速度训练大一倍的神经网络。
Nvidia公司还强调,在Facebook向开放计算项目提交了设计资料后,Big Sur将成为第一个为机器学习和人工智能研究开发的计算系统。
Facebook全球用户基础继续增长(截止9月30日已经达到15.5亿的月活跃用户),因而收集到的数据不断增加,从中获取的信息也可能不断膨胀。
社交媒体巨头Facebook似乎充分利用了这一点,旗下的人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。