英特尔通过开放、易获取的AI系统和生态协作,以创新的方式为运动员提供支持,并助力企业客户创造更多可能。
今日,英特尔分享了与国际奥林匹克委员会(IOC)的一些合作细节,并披露了其以行业需求为导向所打造的生成式AI(GenAI)检索增强生成(RAG)解决方案。该成果深度展示了英特尔如何通过基于英特尔®至强®处理器和英特尔® Gaudi AI加速器的开放式AI系统及平台,帮助开发者和企业应对AI高速发展所带来的需求。
英特尔执行副总裁兼数据中心与人工智能事业部总经理Justin Hotard表示:“此次与国际奥委会的合作,彰显了英特尔致力于推动AI触手可及。我们正在打造一个开放的环境以鼓励创新,帮助开发者和企业构建定制化的AI解决方案并取得切实成果。通过拥抱开放、协作的生态系统,英特尔正以创新的方式为运动员提供支持,并助力企业客户创造更多可能。”
基于Athlete365平台的聊天机器人:对于运动员而言,获得奥运会参赛资格仅仅是个开始。为了帮助全球约11,000名拥有不同语言和文化背景的运动员在奥运比赛场地出入,并遵守相关规定,国际奥委会与英特尔合作开发了基于Athlete365平台的聊天机器人AthleteGPT。这是一款基于英特尔至强处理器和Gaudi加速器的RAG解决方案。AthleteGPT不仅能够应答运动员的日常询问并进行互动,同时将在运动员入住巴黎奥运村期间,为其按需提供信息,使运动员能够专注于自身训练和比赛。
重要意义:部署生成式AI解决方案会带来诸如成本、规模、准确性、开发需求、隐私和可靠性等方面的挑战。作为一种关键的生成式AI工作负载,RAG可以让企业安全地利用专有数据,增强AI产出结果的及时性与可靠性。这将极大地提高AI应用的质量和实用性,对于推动当下的数字化发展意义非凡。
基于AI平台、开放标准以及强大的软件和系统生态,英特尔以协作的方式帮助开发者构建定制化的生成式AI RAG解决方案,从而满足企业的多样化需求。此外,英特尔亦将持续提供开放、强大且可组合的多供应商生成式AI解决方案。
生成式AI RAG解决方案工作流程:英特尔与行业合作伙伴共同创建了开源、可互操作的解决方案,用于轻松部署RAG。基于企业AI开放平台(OPEA),该方案是一种以行业需求为导向、开箱即用,且可立即投产的 RAG 解决方案。该生成式AI一站式解决方案在助力企业便捷地部署数据中心RAG的同时,具备高度的灵活性和可定制性,并集成了多个OEM系统及行业合作伙伴的产品组件。

该生成式AI一站式解决方案将基于OPEA的微服务组件集成至用于部署英特尔至强处理器和Gaudi AI系统的、可扩展的RAG解决方案中,可通过Kubernetes、Red Hat OpenShift等经验证的编排框架进行无缝扩展,并提供兼具可靠性和系统遥测功能的标准化API。
凭借生成式AI一站式解决方案与全面的企业AI堆栈,英特尔提供了完整的解决方案,以应对企业和数据中心在部署和扩展RAG与LLM应用时所面临的挑战。通过基于英特尔技术与产品的AI系统及平台,以及OPEA的优化软件,企业可以更高效、快速地发挥并利用生成式AI的巨大潜力。
现阶段,如何将最新的AI计算技术应用到企业中,并推动关键业务成果落地,是企业亟待解决的问题。通过与广大行业合作伙伴的战略合作,英特尔正为由生成式AI和RAG解决方案驱动的AI服务创造更多新的可能性。
免责声明:
英特尔技术可能需要启用硬件、软件或激活服务。
没有任何产品或组件是绝对安全的。
您的成本和结果可能会有所不同。
英特尔不控制或审计第三方数据。您可咨询其他来源以评估准确性。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。