——扩大模型选择范围,帮助企业以可信和灵活的方式扩展 AI
- IBM 提供 Mixtral-8x7B 的优化版本,该版本可将延迟时间最多缩短 75%
- IBM、第三方和开源模型的目录不断增加,为客户提供更多选择和灵活性
- 是watsonx 人工智能与数据平台上最新的开源模型,watsonx提供企业就绪的人工智能开发平台、数据存储和治理功能
(2024年3月11日,北京)IBM(纽约证券交易所代码:IBM)近日宣布,由Mistral AI公司开发的广受欢迎的开源Mixtral-8x7B大型语言模型(LLM)已经可在其watsonx人工智能与数据平台上使用。
IBM 提供了 Mixtral-8x7B 的优化版本,在内部测试中,与常规模型相比,该版本能够将吞吐量(即在给定时间段内可处理的数据量)提高50%[i]。这可能可以将时间延迟减少 35-75%,从而加快获得洞察的时间,具体取决于批处理量的大小。这是通过一个称为量化的过程来实现的,该过程减少了 LLM 的模型大小和内存需求,进而可以加快处理速度,有助于降低成本和能耗。
Mixtral-8x7B 的加入扩展了 IBM 的开放、多模型战略,随时随地满足客户的需求,并为他们提供选择和灵活性,使其可以跨业务来扩展其企业级人工智能解决方案。通过数十年的人工智能研发、与 Meta 和 Hugging Face 开放式协作,以及与模型领导者的合作伙伴关系,IBM 正在扩展其 watsonx.ai 模型目录,并引入新的功能、语言和模式。
IBM 的企业就绪基础模型选择及其 watsonx 人工智能和数据平台可帮助客户利用生成式人工智能获得新的洞察力和效率,并基于信任原则创建新的业务模式。IBM 可帮助客户根据所针对的业务领域(如金融)的合适用例及性价比目标来选择合适的模型。
Mixtral-8x7B 结合了稀疏建模与专家混合技术来构建,“稀疏建模”是只查找和使用数据中最重要部分以创建更高效的模型的创新技术;而“专家混合技术”是把擅长并解决不同部分问题的不同模型(“专家”)结合在一起的技术。Mixtral-8x7B 模型因其能够快速处理和分析海量数据以提供与上下文相关的见解而广为人知。
IBM 软件公司产品管理与增长高级副总裁 Kareem Yusuf 博士表示:"客户要求在部署最适合其独特用例和业务要求的模型时拥有选择权和灵活性。通过在watsonx上提供Mixtral-8x7B和其它模型,我们不仅为客户提供了部署人工智能的可选性,还为人工智能构建者和业务领导者提供了一个强大的生态系统,使他们能够利用工具和技术推动不同行业和领域的创新。"
在同一周,IBM还宣布在watsonx上提供由ELYZA公司开源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM 还在 watsonx 上提供 Meta 的开源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,未来几个月还将推出更多模型。
有关 IBM 未来方向和意图的声明如有更改或撤回,恕不另行通知,仅代表目标和目的。
[i] 基于 IBM 在供 IBM 使用的 watsonx 实例上使用内部工作负载进行的为期两天的测试。
好文章,需要你的鼓励
Carma Technology 针对 Uber 提起专利侵权诉讼,称其侵犯了涉及拼车系统的五项专利。案情回溯至十年前,凸显专利保护对创新者的重要性,可能对 Uber 及其他公司带来巨大影响。
这项研究展示了如何通过在经济问题上进行后训练,让大语言模型像经济学家一样思考,从而实现战略性泛化能力。研究团队开发了名为Recon的7B参数开源模型,通过在2,100个高质量经济推理问题上进行监督微调和强化学习,不仅提升了模型在经济基准测试上的表现,更重要的是让模型在从未直接训练过的多智能体博弈中展现出合理的战略行为。结果表明,领域对齐的后训练可以作为智能体对齐的可扩展路径,通过结构化推理问题培养出更广泛适用的理性决策能力。
经过暂停战略调整,Automattic 宣布重返 WordPress 开发,包括核心、Gutenberg、Playground 等模块,计划今年推出 6.9 版本,并涉及与 WP Engine 的法律争端。
STORM框架是一种创新的对话系统研究方法,通过模拟用户和AI助手之间的信息不对称来解决意图触发性问题。研究发现中等程度的不确定性(40-60%未知信息)在某些情况下能够优于完全透明,挑战了传统的AI设计假设。通过对四种主流语言模型的测试,团队确定了不同模型在处理用户意图形成过程中的独特特点,为任务导向对话系统设计提供了实用指导。这项研究对隐私保护设计和偏见缓解具有重要启示,表明信息的战略性限制可能比信息最大化更有效。