ZD至顶网服务器频道 12月11日 编译:Facebook人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
Facebook的内部设计项目享誉业内,无论是简单地改善新闻推送(News Feed)算法抑或是为旗下的全球数据中心设计自主开发的全新硬件都做得不错。
全球最大的社交网络Facebook也不断对开源社区作贡献,日前传来的最新消息印证了以上两点,总部设在了加州门洛帕克的Facebook本周宣布计划开源旗下的人工智能(AI)硬件。
Facebook工程师Kevin Lee和Serkan Piantino周四在博客中强调表示,该款全新的开源AI硬件比市面上现成的产品更加有效和灵活,因为这些服务器在数据中心内可基于开放计算项目标准运行。
Lee和Piantino做了如下的解释,“许多高性能计算系统运行时需要特殊冷却设施和其他独特的基础设施,我们对新的服务器在散热和电源效率方面进行了优化,因此这些服务器可以在我们以室外空气制冷的开放计算标准数据中心里运行。”
该款新一代硬件代号为“Big Sur”,是专为训练神经网络设计的。该技术除了与AI有关系外,通常也与机器学习或深度学习有关。
芯片制造商Nvidia在过去一年里也加大了推出深度学习产品组合的力度,两家公司因而在这个项目上联手,该项目涉及到不少有待解决的东西。
Facebook号称是第一家采用Nvidia上个月推出的的Tesla M40 GPU加速器的公司。威力强大的GPU M40主要用于部署深层神经网络,是驱动Big Sur 平台和开放式机架兼容硬件的关键。
有了M40的底气,Facebook工程师称Big Sur 的速度是Facebook老产品的两倍,具有很大潜力,能够以两倍的速度训练大一倍的神经网络。
Nvidia公司还强调,在Facebook向开放计算项目提交了设计资料后,Big Sur将成为第一个为机器学习和人工智能研究开发的计算系统。
Facebook全球用户基础继续增长(截止9月30日已经达到15.5亿的月活跃用户),因而收集到的数据不断增加,从中获取的信息也可能不断膨胀。
社交媒体巨头Facebook似乎充分利用了这一点,旗下的人工智能研究小组(FAIR)计划增加GPU硬件的投资达两倍之多,旨在将机器学习技术扩展到旗下更多的产品里。
好文章,需要你的鼓励
Mirantis 推出开源平台 k0rdent,旨在简化企业 Kubernetes 集群管理。该平台提供统一界面,支持创建内部开发者平台,可管理云端、本地和边缘的 Kubernetes 集群。k0rdent 由集群管理器、状态管理器和可观察性工具三大组件构成,具有可扩展性,支持多种基础设施。
DevAI Solutions Inc. 获得 600 万美元种子轮融资,由 Emergence Capital 领投。该公司由前思科高管创立,开发了一个名为网络智能引擎的软件平台,利用 AI 代理自动化 IT 管理任务,声称可将某些 IT 工单解决时间缩短 40% 至 70%。DevAI 计划利用这笔资金支持产品开发并扩大用户群。
医疗专业人士对人工智能在制药行业的潜力持乐观态度。他们认为AI有望重塑研究、治疗和临床护理,提高诊断准确性,加速药物开发。但同时也强调了确保AI技术符合伦理、有效实施并为患者带来实际价值的重要性。医疗专业人士的观点对于AI技术在医疗领域的成功应用至关重要。
AWS 第四季度收入同比增长 19%,达到 288 亿美元,全年收入增长 19% 至 1076 亿美元。公司将增长归因于企业扩大公共云使用和 AI 需求激增。AWS 预计将在未来 12 个月投资约 1000 亿美元用于基础设施建设,以支持不断增长的云计算和 AI 工作负载需求。