3月26日,浪潮信息与英特尔正式宣布,浪潮信息“源2.0系列基础大模型”已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地推理速度提升100%。企业可以在全新的英特尔商用客户端AI PC上,使用AI PC大模型效率工具“YuanChat”快速本地化部署和运行“源2.0”大模型, 以更快的访问速度、更高的性能和更好的数据安全控制,轻松完成自动编程、商业数据计算、公文写作等任务,释放大模型在企业应用场景中的生产力和创新力!
2024年是 “大模型落地应用的元年”,AI PC(人工智能个人电脑),作为一种能够在本地运行大模型及AIGC应用的PC终端,已经成为AI实现规模化扩展及应用落地的重要载体。英特尔基于酷睿 Ultra 处理器强悍的 CPU+GPU+NPU 三大 AI 引擎,为商用客户端AI PC提供强劲性能,满足经济、物理、数据保密这三大生成式AI on AI PC 法则,可支持200亿规模大语言模型的本地化运行,加速大模型应用落地。
浪潮信息与英特尔合作,针对“源2.0系列基础大模型”,实现酷睿Ultra AI PC平台推理优化,并推出为AI PC而生的大模型效率工具“YuanChat”。浪潮信息“源2.0系列基础大模型”作为首个全面开源的千亿参数模型,包含1026亿、518亿、21亿等三种参数规模。“YuanChat”是基于“源2.0系列基础大模型”设计的应用工具,旨在以对话形式调用大模型,帮助用户完成数据计算、公文写作、编程设计、知识问答、会议纪要、文本总结与摘要等任务导向型应用,真正实现重塑工作模式,提高生产力水平。
基于酷睿 Ultra AI PC上所部署的“YuanChat”,用户能够流畅地使用“源2.0-2B模型(Yuan2-2B-Februa-hf)”。作为业界最强的小规模语言模型,“源2.0-2B模型”具有领先的自动编程、数值计算和逻辑推理能力,在Python编程测试(Humaneval)、数学计算测试(GSM8K)中展现出超越ChatGPT3.5及其他百亿(>10B)参数模型的评测结果,已成为最具竞争力的开源可商用模型。
■ 在编程方面,“YuanChat”提供强大的自动编程、代码分析、代码优化与测试用例生成能力,支持Python、C++、Java等多种编程语言,每分钟可生成50+行参考代码,10分钟即可开发出小型软件项目;
■ 在数据分析领域,“YuanChat”同样可以完成复杂的数学计算与问题推理,能够满足企业在不同场景下的复杂数据计算需求;
■ 在文本创作领域,“YuanChat”支持十余种公文写作,可协助完成智能问答、会议纪要、文本摘要等高级文本处理任务,这意味着 "YuanChat" 不仅能够生成标准的公文,还能够理解和处理复杂的文本信息,提取关键信息,大大提高了文本创作的效率和质量。
基于英特尔商用客户端AI PC强大的独立运算能力,“YuanChat”能解决数据传输过程中的延迟问题与泄露风险,能够实现更高的数据安全性、性能和控制权。同时,“YuanChat”支持离线状态下的自主操作,这使得终端用户能够摆脱网络限制,在任何时间、任何地点都能够进行创造性的工作,享受更灵活的大模型交互体验。
在英特尔商用客户端AI PC上,可以基于BigDL-LLM大模型加速库实现对“YuanChat”的模型量化处理,进一步提高模型的可移植性并加快计算速度,减少资源占用,弥合终端有限的算力与对高精度模型和实时智能应用的需求之间的差距。实测数据显示,在处理复杂任务时,“YuanChat”在保证精度的同时,本地推理效率及性能提升达到100%,进一步降低了企业应用大模型的成本。
未来,浪潮信息与英特尔将持续携手构建活跃的AIPC生态。双方将联合基于英特尔® 酷睿™ Ultra处理器平台进行“源2.0系列基础大模型”的进一步适配与优化,不断完善“YuanChat”应用系统,将大模型和商用平台的生产力、安全性、可管理性和稳定性有机结合,开拓商用 AI PC 更多的新应用、新场景、新形态,帮助企业用户在PC端打造更加安全、流畅、易用的大模型效率工具,惠及企业提升效率,赋能世界的智能化变革。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。