
(2024年6月26日,北京)近日,IBM凭借其旗舰Granite系列模型,在2024年第二季度的《Forrester Wave™:语言AI基础模型》报告中,被评为“强劲表现者”。点击链接即可免费下载报告副本。
随着企业从生成式AI的试验阶段转向生产阶段,他们正在寻找基础模型的最佳选择,他们希望这些模型能够提供可信、性能优越且成本效益高的生成式AI。企业认识到,如果基础模型不可信,他们就无法扩展生成式AI。
IBM® Granite™ 是IBM的旗舰基础模型系列,基于仅解码器的Transformer架构。这些模型在涵盖互联网、学术、代码、法律和金融等领域的可信企业数据上进行训练,可以在IBM watsonx™、RedHat®、其他模型市场以及Hugging Face和GitHub等开源平台上获取。
IBM对AI信任和可靠性的承诺和方法,受到Forrester的认可
虽然大多数模型提供商专注于提高性价比,但IBM在设计和交付各种用例和应用的模型时,优先考虑信任和透明性,同时仍能实现合适的性价比。IBM痴迷于帮助客户取得生成式AI使命的成功,其实现这一承诺的方法是:正确地构建人工智能,提供正确的人工智能。
Forrester认为,Granite系列模型为企业用户提供了对基础训练数据的一些最稳健和清晰的洞察。这对于有效地改进特定用例和领域的模型行为,以及保护企业免受训练数据中任何未授权内容带来的风险至关重要。
这一认可验证了IBM在交付企业级基础模型方面的差异化方法,帮助客户加速生成式AI在其业务工作流程中的应用,同时减轻与基础模型相关的风险。

此外,Forrester给出的关于潜在改进领域的建设性反馈也非常及时,因为IBM正以开源创新重振其模型策略,从而在现有产品的强大基础上,可以迅速扩大市场影响力,为众多企业客户、合作伙伴和开发人员提供服务,并取得了显著的进展。
2024年,IBM在促进基础模型的增长和转型之旅中,积极寻求来自Forrester等行业专家、客户和人工智能生态系统的意见,凭借开放的心态和演绎推理不断探索。
IBM凭借其差异化的模型方法,在现有产品中排名第二:
IBM Granite模型在此次Forrester Wave评估中,在内容语料库过滤、知识产权、模型透明度和一致性方面获得了满分。Granite模型受隐私和负责技术办公室的管控,根据AI伦理和原则进行训练和调优,并采用了IBM Research®创新的AI对齐技术。
由于这些固有特性以及watsonx这一强大可靠的AI和数据平台的支持,以及通过红帽® OpenShift®的混合部署选项,IBM模型在企业就绪性、治理和安全性、应用程序开发和模型管理方面获得最高评分。这也与最近斯坦福透明度指数的结果一致,该指数认可Granite模型在开放性和可信度方面的优异表现。
Forrester对于IBM Granite的洞察:
IBM继续通过引入第三方模型来扩展其基础模型库,以增强多模态和多语言能力,并提供自带模型(BYOM)的选项。此方法与其Granite模型系列的研究开发和开放创新相辅相成。
请阅读最近在IBM THINK大会上宣布的与第三方模型合作伙伴关系相关的更多消息。IBM业务发展和战略合作伙伴团队还将继续签署特定的商业和独立软件供应商协议,以扩展平台上的模型选择。 正如 Forrester 所言,在基础模型方面,选择和灵活性将成为企业决策的关键因素。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。