3月26日,浪潮信息与英特尔正式宣布,浪潮信息“源2.0系列基础大模型”已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地推理速度提升100%。企业可以在全新的英特尔商用客户端AI PC上,使用AI PC大模型效率工具“YuanChat”快速本地化部署和运行“源2.0”大模型, 以更快的访问速度、更高的性能和更好的数据安全控制,轻松完成自动编程、商业数据计算、公文写作等任务,释放大模型在企业应用场景中的生产力和创新力!
2024年是 “大模型落地应用的元年”,AI PC(人工智能个人电脑),作为一种能够在本地运行大模型及AIGC应用的PC终端,已经成为AI实现规模化扩展及应用落地的重要载体。英特尔基于酷睿 Ultra 处理器强悍的 CPU+GPU+NPU 三大 AI 引擎,为商用客户端AI PC提供强劲性能,满足经济、物理、数据保密这三大生成式AI on AI PC 法则,可支持200亿规模大语言模型的本地化运行,加速大模型应用落地。
浪潮信息与英特尔合作,针对“源2.0系列基础大模型”,实现酷睿Ultra AI PC平台推理优化,并推出为AI PC而生的大模型效率工具“YuanChat”。浪潮信息“源2.0系列基础大模型”作为首个全面开源的千亿参数模型,包含1026亿、518亿、21亿等三种参数规模。“YuanChat”是基于“源2.0系列基础大模型”设计的应用工具,旨在以对话形式调用大模型,帮助用户完成数据计算、公文写作、编程设计、知识问答、会议纪要、文本总结与摘要等任务导向型应用,真正实现重塑工作模式,提高生产力水平。
基于酷睿 Ultra AI PC上所部署的“YuanChat”,用户能够流畅地使用“源2.0-2B模型(Yuan2-2B-Februa-hf)”。作为业界最强的小规模语言模型,“源2.0-2B模型”具有领先的自动编程、数值计算和逻辑推理能力,在Python编程测试(Humaneval)、数学计算测试(GSM8K)中展现出超越ChatGPT3.5及其他百亿(>10B)参数模型的评测结果,已成为最具竞争力的开源可商用模型。
■ 在编程方面,“YuanChat”提供强大的自动编程、代码分析、代码优化与测试用例生成能力,支持Python、C++、Java等多种编程语言,每分钟可生成50+行参考代码,10分钟即可开发出小型软件项目;
■ 在数据分析领域,“YuanChat”同样可以完成复杂的数学计算与问题推理,能够满足企业在不同场景下的复杂数据计算需求;
■ 在文本创作领域,“YuanChat”支持十余种公文写作,可协助完成智能问答、会议纪要、文本摘要等高级文本处理任务,这意味着 "YuanChat" 不仅能够生成标准的公文,还能够理解和处理复杂的文本信息,提取关键信息,大大提高了文本创作的效率和质量。
基于英特尔商用客户端AI PC强大的独立运算能力,“YuanChat”能解决数据传输过程中的延迟问题与泄露风险,能够实现更高的数据安全性、性能和控制权。同时,“YuanChat”支持离线状态下的自主操作,这使得终端用户能够摆脱网络限制,在任何时间、任何地点都能够进行创造性的工作,享受更灵活的大模型交互体验。
在英特尔商用客户端AI PC上,可以基于BigDL-LLM大模型加速库实现对“YuanChat”的模型量化处理,进一步提高模型的可移植性并加快计算速度,减少资源占用,弥合终端有限的算力与对高精度模型和实时智能应用的需求之间的差距。实测数据显示,在处理复杂任务时,“YuanChat”在保证精度的同时,本地推理效率及性能提升达到100%,进一步降低了企业应用大模型的成本。
未来,浪潮信息与英特尔将持续携手构建活跃的AIPC生态。双方将联合基于英特尔® 酷睿™ Ultra处理器平台进行“源2.0系列基础大模型”的进一步适配与优化,不断完善“YuanChat”应用系统,将大模型和商用平台的生产力、安全性、可管理性和稳定性有机结合,开拓商用 AI PC 更多的新应用、新场景、新形态,帮助企业用户在PC端打造更加安全、流畅、易用的大模型效率工具,惠及企业提升效率,赋能世界的智能化变革。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。