
生成AI大语言模型供应商Hugging Face已经与戴尔达成协议,计划将更多定制化生成AI模型部署在戴尔的服务器与存储产品之上。
Hugging Face对外提供各类开源大语言模型,包括用于文本分类的Distilbert-sst-2-int8等。作为Hugging Face合作伙伴,已经有越来越多的开源模型运行在AMD打造的Instinct和Alveo加速器之上,CloudFlare也有类似合作。如今,Hugging Face决定在其平台上构建戴尔门户,通过戴尔的计算与存储基础设施开放更多定制化大语言模型(LLM)的本地部署方案。
戴尔首席AI官Jeff Boudreau专门发表声明评论此番合作,“戴尔科技的生成AI优势将与Hugging Face的数据集和库集合相结合,帮助用户实现开源生成AI模型自由,并通过保障本地数据的安全性和可靠性,让他们能够安心使用更多开源生成AI模型。”
Hugging Face产品与业务增长主管Jeff Boudier也表示,“此次合作将让企业客户能够充分利用开源社区中精彩纷呈的创新成果,借此构建起自己的AI系统,同时充分享受戴尔系统带来的安全性、合规性与性能保障。”
Hugging Face上的戴尔门户将提供定制化专用容器和脚本,帮助用户在戴尔服务器和数据存储系统之上部署各类开源模型。
目前,戴尔公司正在全力进军AI领域。不久前,该公司刚刚发布了ObjectScale XF960全闪存存储设备和戴尔AI验证设计(Dell Validated Designs for AI)方案,其中就包括配备有X86 CPU以及最高8个英伟达H100 GPU的PowerEdge XE9680服务器。
Hugging Face目前的产品目录中拥有超过30万种大语言模型,同时提供预训练的模型、库、工具及资源,希望尽可能降低受众的使用门槛。该公司于2016年成立于纽约布鲁克林,主要提供开源自然语言处理技术。通过前后六轮融资,Hugging Face公司总计筹得3.952亿美元,最近一轮是今年8月进行的D轮融资、筹得2.35亿美元。Salesforce、谷歌和AMD均出资支持这家后起之秀。
好文章,需要你的鼓励
微软正式确认配置管理器将转为年度发布模式,并将Intune作为主要创新重点。该变化将于2026年秋季生效,在此之前还有几个版本发布。微软表示此举是为了与Windows客户端安全和稳定性节奏保持一致,优先确保安全可靠的用户体验。配置管理器将专注于安全性、稳定性和长期支持,而所有新功能创新都将在云端的Intune中进行。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
人工智能初创公司aiOla推出基于流匹配训练技术的语音AI模型Drax,挑战OpenAI和阿里巴巴等巨头。该模型重新定义语音算法训练方式,能在嘈杂环境中准确识别语音,兼顾速度与准确性。相比OpenAI的Whisper和阿里巴巴Qwen2,Drax采用并行流处理技术,速度提升32倍,词错误率仅7.4%。该模型已在GitHub开源,提供三种规模版本。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。