今天,亚马逊云科技(AWS)宣布推出全新Amazon EC2实例,该实例由定制的第四代英特尔® 至强® 可扩展处理器提供支持。此次发布的是越来越多搭载第四代英特尔至强可扩展处理器实例中的最新产品,该实例具备领先的总体拥有成本(TCO)和众多CPU内置加速器,以支持人工智能、数据库、网络和企业应用等关键工作负载。
英特尔公司副总裁兼至强产品和解决方案事业部总经理Lisa Spelman表示,“英特尔与AWS密切合作,让更多客户能够使用我们功能丰富的第四代英特尔至强可扩展处理器,其中许多客户在私有和公共预览中已经受益于其出色的性能和价值。今天,我们很高兴能够将同样的实践应用价值带给全球云客户。”
得益于AWS广泛的全球应用,Amazon EC2 M7i-flex和M7i这些全新的Amazon EC2实例为大众提供第四代英特尔至强可扩展的加速器引擎。诸如英特尔® 高级矩阵扩展(英特尔® AMX)等内置加速器为市场上需求增长的人工智能工作负载提供了一个理想选择。具备AMX的第四代英特尔至强可扩展处理器还可以满足大语言模型(LLMs)在小于200亿参数中的推理性能指标,使LLM能够在通用基础设施上实现经济高效且可持续的运行。
此外,英特尔和AWS亦为客户提供一系列产品选择,以实现工作负载、性能和定价需求的理想匹配,并通过易用性和灵活性满足未来数字基础设施需求。
M7i-flex和M7i实例可在美国东部(俄亥俄州和弗吉尼亚州)、美国西部(俄勒冈州)和欧洲(爱尔兰)的AWS支持区域使用。
M7i-flex实例提供:
M7i实例提供:
注释:
1 由英特尔于2023年7月25日测试。欲更多关于价格的信息,请联系AWS。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。