【2022 年 5 月 23 日美国加州圣何塞2022 年台北国际电脑展线上展讯】Super Micro Computer, Inc. (Nasdaq:SMCI) 为企业级计算、储存、网络解决方案和绿色计算技术等领域的全球领导者,计划将NVIDIA Grace CPU 超级芯片部署至针对AI、HPC、资料分析、数字孪生(Digital Twins)和计算密集型应用优化的各种服务器中。随着人工智能(AI)技术逐步跨产业发展,Supermicro 服务器将通过采用NVIDIA Grace CPU 超级芯片,让更广泛的开发人员和IT 管理员都能使用这项新技术。Supermicro 服务器将针对能源效率进行优化,协助降低运营成本,成为所有数据中心的基准。此外,靠着高达每秒1 TB 的内存带宽,应用程序将不再受通信速度的限制。最初将从2U 2 节点产品组合开始提供限量的服务器,之后则会扩充产品系列。
Supermicro首席执行官暨总裁梁见后Charles Liang 表示:“Supermicro正在开发搭载NVIDIA Grace CPU 超级芯片的全新服务器平台,通过采用我们创新的Building Block Solutions®,我们计划推出不同类型的服务器,针对各种特定的工作负载优化。Supermicro 将以我们的绿色计算DNA 为基础,打造最先进的节能型服务器,满足严苛的数据中心要求。我们首款推出的全新系统可迅速应对快速扩展的AI、HPC 和数据分析的市场。”
NVIDIA 加速计算部资深主管Paresh Kharya 表示:“NVIDIA 长久以来与Supermicro密切合作,在最短的时间内将创新产品推向市场。所推出搭载NVIDIA Grace CPU 超级芯片的Supermicro 服务器将优化各种工作负载,满足现代数据中心的各种需求。”
Supermicro 的全方位 IT 解决方案旨在为客户提供一站式体验,满足其各种IT 需求。Supermicro 测试并集成软硬件组合确保服务器或机柜级设计满足IT 专业人员当下及未来的需求。为了持续实行计划,Supermicro将在针对HPC、AI 和数据分析工作负载优化的解决方案中集成NVIDIA Grace CPU 超级芯片。具体来说,NVIDIA Grace CPU 超级芯片能与最新的PCIe Gen5 通信协议连接,实现与NVIDIA Quantum-2 InfiniBand 平台或 NVIDIA Spectrum 以太网每秒400 Gb 的最佳连接,包括 NVIDIA ConnectX®-7 智能网络适配器和NVIDIA BlueField-3 DPU,用于执行安全且加速的HPC 和 AI 工作负载。
Supermicro和NVIDIA合作多年,携手为广大的用户群提供最先进的图像、HPC 和 AI 加速器。在全新 NVIDIA Grace CPU 超级芯片的助力下,包括 NVIDIA AI Enterprise 在内的整个NVIDIA 软件堆栈将在即将推出的Supermicro 服务器上运作流畅。Supermicro 也将继续支持NVIDIA Omniverse Enterprise,协助加速工业虚拟世界和数字孪生的3D 设计协作与模拟。

好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。