为推动Open Compute Project(OCP)项目,Facebook本周公布了最新名为Big Basin v2的GPU服务器设计。
OCP最早是由一群致力于通过开发共享知识产权来打造高效服务器、存储和数据中心的工程师社区建立起来的。诺基亚、英特尔、思科、联想、苹果和谷歌等公司都是OCP的成员。
Big Basin v2的结构与之前的Big Basin基本相同,但升级采用了Nvidia最新八款Tesla V100图形卡。Tioga Pass CPU单元被用于头节点,同时在CPU与GPU之间数据传输的PCIe带宽也翻了一番。
Facebook在一篇博客文章中表示,在增加了OCP网卡的带宽之后,单GPU性能与之前的Big Basin设计相比增加了66%。
这意味着研究人员和工程师可以构建更大规模的机器学习模型,更有效地进行训练和部署。 Facebook通过监控用户的互动,来预测特定用户将看到什么内容。
Facebook将机器学习用于新闻推送排名、个性化广告、搜索、语言翻译、语音识别、甚至是在上传的图片中为你的朋友推荐正确的标签。
大多数机器学习是通过Facebook的AI软件平台FBLearner运行的。
Facebook机器学习基础设施的数据通道。图片来源:Facebook
它分为不同的组件:Feature Store、Flow和Predictor。
Facebook解释说:“Feature Store根据数据和数据流生成特征并将其提供给FBLearner Flow。Flow则基于生成的特征来构建、训练和评估机器学习模型。”
“然后通过FBLearner Predictor把最终的训练模型部署到生产环境中。Predictor会对实时流量进行推断或预测。例如,它可以预测某人最关心的故事、帖子或照片。”
我们很感兴趣看看用于支持大型企业人工智能和机器学习的硬件蓝图是怎样的。这对Facebook来说意义重大,因为它实际上并不真正地参与AI Cloud竞争。谷歌或亚马逊等其他技术巨头可能不会乐于采用它的系统。
“我们相信,开放合作有助于促进未来设计的创新,并使我们能够构建更复杂的人工智能系统,最终支持沉浸式的Facebook体验。”
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。