生成AI大语言模型供应商Hugging Face已经与戴尔达成协议,计划将更多定制化生成AI模型部署在戴尔的服务器与存储产品之上。
Hugging Face对外提供各类开源大语言模型,包括用于文本分类的Distilbert-sst-2-int8等。作为Hugging Face合作伙伴,已经有越来越多的开源模型运行在AMD打造的Instinct和Alveo加速器之上,CloudFlare也有类似合作。如今,Hugging Face决定在其平台上构建戴尔门户,通过戴尔的计算与存储基础设施开放更多定制化大语言模型(LLM)的本地部署方案。
戴尔首席AI官Jeff Boudreau专门发表声明评论此番合作,“戴尔科技的生成AI优势将与Hugging Face的数据集和库集合相结合,帮助用户实现开源生成AI模型自由,并通过保障本地数据的安全性和可靠性,让他们能够安心使用更多开源生成AI模型。”
Hugging Face产品与业务增长主管Jeff Boudier也表示,“此次合作将让企业客户能够充分利用开源社区中精彩纷呈的创新成果,借此构建起自己的AI系统,同时充分享受戴尔系统带来的安全性、合规性与性能保障。”
Hugging Face上的戴尔门户将提供定制化专用容器和脚本,帮助用户在戴尔服务器和数据存储系统之上部署各类开源模型。
目前,戴尔公司正在全力进军AI领域。不久前,该公司刚刚发布了ObjectScale XF960全闪存存储设备和戴尔AI验证设计(Dell Validated Designs for AI)方案,其中就包括配备有X86 CPU以及最高8个英伟达H100 GPU的PowerEdge XE9680服务器。
Hugging Face目前的产品目录中拥有超过30万种大语言模型,同时提供预训练的模型、库、工具及资源,希望尽可能降低受众的使用门槛。该公司于2016年成立于纽约布鲁克林,主要提供开源自然语言处理技术。通过前后六轮融资,Hugging Face公司总计筹得3.952亿美元,最近一轮是今年8月进行的D轮融资、筹得2.35亿美元。Salesforce、谷歌和AMD均出资支持这家后起之秀。
好文章,需要你的鼓励
在“PEC 2025 AI创新者大会暨第二届提示工程峰会”上,一场以“AIGC创作新范式——双脑智能时代:心智驱动的生产力变革”为主题的分论坛,成为现场最具张力的对话空间。
人民大学团队开发了Search-o1框架,让AI在推理时能像侦探一样边查资料边思考。系统通过检测不确定性词汇自动触发搜索,并用知识精炼模块从海量资料中提取关键信息无缝融入推理过程。在博士级科学问题测试中,该系统整体准确率达63.6%,在物理和生物领域甚至超越人类专家水平,为AI推理能力带来突破性提升。
Linux Mint团队计划加快发布周期,在未来几个月推出两个新版本。LMDE 7代号"Gigi"基于Debian 13开发,将包含libAdapta库以支持Gtk4应用的主题功能。新版本将停止提供32位版本支持。同时Cinnamon桌面的Wayland支持持续改进,在菜单、状态小程序和键盘输入处理方面表现更佳,有望成为完整支持Wayland的重要桌面环境之一。
Anthropic研究团队开发的REINFORCE++算法通过采用全局优势标准化解决了AI训练中的"过度拟合"问题。该算法摒弃了传统PPO方法中昂贵的价值网络组件,用统一评价标准替代针对单个问题的局部基准,有效避免了"奖励破解"现象。实验显示,REINFORCE++在处理新问题时表现更稳定,特别是在长文本推理和工具集成场景中展现出优异的泛化能力,为开发更实用可靠的AI系统提供了新思路。