3月26日,浪潮信息与英特尔正式宣布,浪潮信息“源2.0系列基础大模型”已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地推理速度提升100%。企业可以在全新的英特尔商用客户端AI PC上,使用AI PC大模型效率工具“YuanChat”快速本地化部署和运行“源2.0”大模型, 以更快的访问速度、更高的性能和更好的数据安全控制,轻松完成自动编程、商业数据计算、公文写作等任务,释放大模型在企业应用场景中的生产力和创新力!

2024年是 “大模型落地应用的元年”,AI PC(人工智能个人电脑),作为一种能够在本地运行大模型及AIGC应用的PC终端,已经成为AI实现规模化扩展及应用落地的重要载体。英特尔基于酷睿 Ultra 处理器强悍的 CPU+GPU+NPU 三大 AI 引擎,为商用客户端AI PC提供强劲性能,满足经济、物理、数据保密这三大生成式AI on AI PC 法则,可支持200亿规模大语言模型的本地化运行,加速大模型应用落地。
浪潮信息与英特尔合作,针对“源2.0系列基础大模型”,实现酷睿Ultra AI PC平台推理优化,并推出为AI PC而生的大模型效率工具“YuanChat”。浪潮信息“源2.0系列基础大模型”作为首个全面开源的千亿参数模型,包含1026亿、518亿、21亿等三种参数规模。“YuanChat”是基于“源2.0系列基础大模型”设计的应用工具,旨在以对话形式调用大模型,帮助用户完成数据计算、公文写作、编程设计、知识问答、会议纪要、文本总结与摘要等任务导向型应用,真正实现重塑工作模式,提高生产力水平。

基于酷睿 Ultra AI PC上所部署的“YuanChat”,用户能够流畅地使用“源2.0-2B模型(Yuan2-2B-Februa-hf)”。作为业界最强的小规模语言模型,“源2.0-2B模型”具有领先的自动编程、数值计算和逻辑推理能力,在Python编程测试(Humaneval)、数学计算测试(GSM8K)中展现出超越ChatGPT3.5及其他百亿(>10B)参数模型的评测结果,已成为最具竞争力的开源可商用模型。
■ 在编程方面,“YuanChat”提供强大的自动编程、代码分析、代码优化与测试用例生成能力,支持Python、C++、Java等多种编程语言,每分钟可生成50+行参考代码,10分钟即可开发出小型软件项目;
■ 在数据分析领域,“YuanChat”同样可以完成复杂的数学计算与问题推理,能够满足企业在不同场景下的复杂数据计算需求;
■ 在文本创作领域,“YuanChat”支持十余种公文写作,可协助完成智能问答、会议纪要、文本摘要等高级文本处理任务,这意味着 "YuanChat" 不仅能够生成标准的公文,还能够理解和处理复杂的文本信息,提取关键信息,大大提高了文本创作的效率和质量。
基于英特尔商用客户端AI PC强大的独立运算能力,“YuanChat”能解决数据传输过程中的延迟问题与泄露风险,能够实现更高的数据安全性、性能和控制权。同时,“YuanChat”支持离线状态下的自主操作,这使得终端用户能够摆脱网络限制,在任何时间、任何地点都能够进行创造性的工作,享受更灵活的大模型交互体验。
在英特尔商用客户端AI PC上,可以基于BigDL-LLM大模型加速库实现对“YuanChat”的模型量化处理,进一步提高模型的可移植性并加快计算速度,减少资源占用,弥合终端有限的算力与对高精度模型和实时智能应用的需求之间的差距。实测数据显示,在处理复杂任务时,“YuanChat”在保证精度的同时,本地推理效率及性能提升达到100%,进一步降低了企业应用大模型的成本。
未来,浪潮信息与英特尔将持续携手构建活跃的AIPC生态。双方将联合基于英特尔® 酷睿™ Ultra处理器平台进行“源2.0系列基础大模型”的进一步适配与优化,不断完善“YuanChat”应用系统,将大模型和商用平台的生产力、安全性、可管理性和稳定性有机结合,开拓商用 AI PC 更多的新应用、新场景、新形态,帮助企业用户在PC端打造更加安全、流畅、易用的大模型效率工具,惠及企业提升效率,赋能世界的智能化变革。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。