生成AI大语言模型供应商Hugging Face已经与戴尔达成协议,计划将更多定制化生成AI模型部署在戴尔的服务器与存储产品之上。
Hugging Face对外提供各类开源大语言模型,包括用于文本分类的Distilbert-sst-2-int8等。作为Hugging Face合作伙伴,已经有越来越多的开源模型运行在AMD打造的Instinct和Alveo加速器之上,CloudFlare也有类似合作。如今,Hugging Face决定在其平台上构建戴尔门户,通过戴尔的计算与存储基础设施开放更多定制化大语言模型(LLM)的本地部署方案。
戴尔首席AI官Jeff Boudreau专门发表声明评论此番合作,“戴尔科技的生成AI优势将与Hugging Face的数据集和库集合相结合,帮助用户实现开源生成AI模型自由,并通过保障本地数据的安全性和可靠性,让他们能够安心使用更多开源生成AI模型。”
Hugging Face产品与业务增长主管Jeff Boudier也表示,“此次合作将让企业客户能够充分利用开源社区中精彩纷呈的创新成果,借此构建起自己的AI系统,同时充分享受戴尔系统带来的安全性、合规性与性能保障。”
Hugging Face上的戴尔门户将提供定制化专用容器和脚本,帮助用户在戴尔服务器和数据存储系统之上部署各类开源模型。
目前,戴尔公司正在全力进军AI领域。不久前,该公司刚刚发布了ObjectScale XF960全闪存存储设备和戴尔AI验证设计(Dell Validated Designs for AI)方案,其中就包括配备有X86 CPU以及最高8个英伟达H100 GPU的PowerEdge XE9680服务器。
Hugging Face目前的产品目录中拥有超过30万种大语言模型,同时提供预训练的模型、库、工具及资源,希望尽可能降低受众的使用门槛。该公司于2016年成立于纽约布鲁克林,主要提供开源自然语言处理技术。通过前后六轮融资,Hugging Face公司总计筹得3.952亿美元,最近一轮是今年8月进行的D轮融资、筹得2.35亿美元。Salesforce、谷歌和AMD均出资支持这家后起之秀。
好文章,需要你的鼓励
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
OpenAI明确表示要成为互联网一切事物的主导界面。AI智能体正在改变用户的数字习惯,从健康记录分析到购物指导,ChatGPT已经在多个领域扩展影响力。用户快速采用AI工具,但企业和生态系统的适应速度滞后。电商领域的权力分配尚不明确,用户偏好AI驱动的答案优先体验,品牌则推动生成式引擎优化。研究旨在了解用户与企业在AI变革中的适应差异。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。