ZD至顶网服务器频道 12月11日 编译:Facebook人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
Facebook的内部设计项目享誉业内,无论是简单地改善新闻推送(News Feed)算法抑或是为旗下的全球数据中心设计自主开发的全新硬件都做得不错。
全球最大的社交网络Facebook也不断对开源社区作贡献,日前传来的最新消息印证了以上两点,总部设在了加州门洛帕克的Facebook本周宣布计划开源旗下的人工智能(AI)硬件。
Facebook工程师Kevin Lee和Serkan Piantino周四在博客中强调表示,该款全新的开源AI硬件比市面上现成的产品更加有效和灵活,因为这些服务器在数据中心内可基于开放计算项目标准运行。
Lee和Piantino做了如下的解释,“许多高性能计算系统运行时需要特殊冷却设施和其他独特的基础设施,我们对新的服务器在散热和电源效率方面进行了优化,因此这些服务器可以在我们以室外空气制冷的开放计算标准数据中心里运行。”
该款新一代硬件代号为“Big Sur”,是专为训练神经网络设计的。该技术除了与AI有关系外,通常也与机器学习或深度学习有关。
芯片制造商Nvidia在过去一年里也加大了推出深度学习产品组合的力度,两家公司因而在这个项目上联手,该项目涉及到不少有待解决的东西。
Facebook号称是第一家采用Nvidia上个月推出的的Tesla M40 GPU加速器的公司。威力强大的GPU M40主要用于部署深层神经网络,是驱动Big Sur 平台和开放式机架兼容硬件的关键。
有了M40的底气,Facebook工程师称Big Sur 的速度是Facebook老产品的两倍,具有很大潜力,能够以两倍的速度训练大一倍的神经网络。
Nvidia公司还强调,在Facebook向开放计算项目提交了设计资料后,Big Sur将成为第一个为机器学习和人工智能研究开发的计算系统。
Facebook全球用户基础继续增长(截止9月30日已经达到15.5亿的月活跃用户),因而收集到的数据不断增加,从中获取的信息也可能不断膨胀。
社交媒体巨头Facebook似乎充分利用了这一点,旗下的人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
好文章,需要你的鼓励
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。