刚刚落下帷幕的 2025 中国生成式 AI 大会,再次成为观察中国人工智能产业发展趋势的重要窗口。本次大会汇聚了众多行业领袖与技术专家,共同探讨生成式 AI 的最新进展与未来方向。其中,枫清科技创始人兼 CEO 高雪峰发表的题为《知识引擎与大模型双轮驱动:打造下一代企业级智能体应用平台》的主题演讲,分享的关于知识引擎与大模型双轮驱动的思考,引发了行业内的讨论。
枫清科技创始人兼 CEO 高雪峰
近年来,生成式 AI 技术在中国蓬勃发展,不仅在内容创作领域展现出巨大潜力,更在推动各行业智能化升级方面扮演着越来越重要的角色。中国政府对人工智能产业的高度重视,以及“人工智能+”战略的深入推进,为生成式 AI 的创新应用提供了沃土。与此同时,行业也逐渐认识到,仅仅依赖通用大模型难以完全满足复杂多样的企业级应用需求,如何更有效地利用企业自身的数据资产,构建更精准、更可靠的智能系统,成为当前产业发展的关键议题。
在此背景下,高雪峰在大会上提出的“知识引擎与大模型双轮驱动”的理念,无疑为破解这一难题提供了新的思路。高雪峰曾担任阿里云大数据&AI 技术产品总经理、IBM 认知计算解决方案研究院院,负责 IBM Watson 等世界领先 AI 技术在中国的落地。在去年 12 月于上海举行的“2024 中国生成式 AI 大会”上他指出,面对企业级应用对知识准确性、推理能力和可解释性的更高要求,仅凭大模型往往难以完全胜任。企业智能化的核心趋势正在从以模型为中心(Model-Centric)的架构转向以数据为中心(Data-Centric)的新范式。通过融合知识引擎与大模型,构建新一代智能体平台,是弥合生成式 AI 与企业决策智能之间鸿沟的关键。
高雪峰认为,知识引擎与大模型的双轮驱动,正是应对这些挑战的有效方案。知识引擎凭借其在结构化知识表达、逻辑推理和可解释性方面的优势,能够为大模型提供精准的知识支撑,有效缓解大模型可能出现的“幻觉”问题,并提升其在特定领域的专业性。而大模型则能够利用其强大的自然语言理解和生成能力,将知识引擎提供的结构化信息转化为更易于理解和应用的形式,实现更智能、更友好的应用体验。
在演讲中,高雪峰重点介绍了枫清科技在知识引擎等关键技术方面的探索与实践。通过将基于知识图谱的符号检索与基于向量的语义检索相结合,枫清科技的技术方案能够更全面地理解用户意图,并从海量的企业数据中检索到最相关的知识,为大模型提供高质量的输入,从而生成更准确、更可靠的答案和更具洞察力的分析结果。
枫清科技一直致力于将领先的 AI 技术应用于赋能各行各业的数智化转型。其近期与中化信息、吉林大学联合成立“人工智能赋能新材料联合实验室”,正是一个典型的案例。该实验室旨在通过人工智能技术加速新材料的研发和产业升级,而高雪峰在生成式 AI 大会上提出的“知识引擎与大模型双轮驱动”的理念,将为产学研跨界合作提供重要的技术支撑。未来,通过构建新材料领域的专业知识库,并结合大模型的生成和推理能力,有望在新材料的发现、性能预测和应用拓展等方面取得突破性进展。
高雪峰还分享了构建下一代企业级智能体应用平台的关键要素。他强调,需要针对行业特点构建高质量的行业数据集并建设行业大模型,以实际应用场景为驱动,结合强大的智能平台与工具,才能真正实现人工智能在企业高价值场景中的深度应用。枫清科技正是在这一思路的指导下,积极与各行业伙伴合作,探索人工智能在智能决策、运营优化、产品研发等多个场景的落地。
展望未来,随着生成式 AI 技术的不断成熟和发展,知识引擎与大模型的融合将成为推动企业智能化升级的重要趋势。枫清科技高雪峰在本次大会上分享的真知灼见,不仅展现了枫清科技在人工智能领域的创新实力,也为中国企业如何更好地拥抱生成式 AI,实现高质量发展指明了方向。通过知识与智能的深度融合,我们有理由相信,下一代企业级智能体应用平台将为各行各业带来更加高效、便捷和智能的解决方案,助力中国在数字经济时代取得更大的成就。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。