英特尔Habana实验室今天表示,将为加利福尼亚大学圣迭戈分校提供数百个人工智能芯片,并将这些芯片整合到即将上线的Voyager研究用超级计算机中。
科学家将使用Voyager超级计算机运行诸如粒子加速器实验数据分析之类的项目。
英特尔在2019年以20亿美元的价格收购了刚走出隐身模式仅仅两年时间的Habana Labs。Habana Labs提供了两款AI芯片——Gaudi和Goya,分别用于训练机器学习模型和执行推理任务。
Habana称,由于该架构中内置了许多提高效率的功能,因此在某些情况下,Habana Labs的芯片运行AI工作负载的效率高于GPU,主要亮点是每个芯片上都配置了10个100千兆以太网端口。
由于训练和运行AI软件需要大量运算,因此通常需要将工作负载分配到大量处理器上,这些处理器又必须相互连接,通过网络接口卡协调运行计算任务。通常每个设备需要配置一个这种芯片,这可能会大大增加构建大型机器学习系统(如AI优化的超级计算机)的成本。
每个Habana Labs芯片中内置的10个以太网端口使得不在需要独立的网络接口卡。据Habana Labs称,这不仅降低硬件要求从而降低了系统成本,而且还可以提高性能。此前AWS计划推出基于Habana Labs Gaudi AI训练芯片的实例系列,AWS表示,这与GPU实例相比,性价比可提高40%。
加州大学圣地亚哥分校的Voyager超级计算机将配备336个Gaudi芯片和16个推理优化型Goya芯片。研究人员将利用该超级计算开发定制的AI模型以及新的机器学习技术,用于计算科学实验。
作为该项目的一部分,加州大学圣地亚哥分校的技术合作伙伴Super Micro将把Habana Labs的芯片整合到两组计算模块中,这将构成Voyager的基本构建块。第一组模块将各自配置8个Gaudi芯片和2个第三代英特尔Xeon Scalable CPU,另一组模块将配置8个Goya推理芯片与第二代Xeon Scalable CPU。
Voyager系统将于今年秋季上线,届时将开始为期三年的“测试阶段”,在此期间,Voyager将被来自天文学、气候学、化学和粒子物理学等领域的众多研究团队所使用,他们将探索利用超级计算机AI芯片的各种方法,并且随着该校逐渐扩大Voyager的使用范围,这些研究团队也将开发相关技术文档并与其他科学家进行共享。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。