AI Factory旨在通过部署一套集成的基础架构、软件和服务(包括英伟达的AI基础架构和软件),帮助企业在运营中采用和扩展人工智能。
戴尔正在扩展集成机架可扩展系统(Integrated Rack Scalable Systems),将PowerEdge XE9685L和PowerEdge XE7740服务器装进名为Dell Integrated Rack 5000的标准19英寸机箱中。这两款产品将于明年第一季度上市。
IRSS计划是一个交钥匙工厂集成计划,提供满载的机架级系统,可选择水冷或风冷,并为整个机架提供集中服务和支持选项。IR5000的设计旨在节省空间并支持高密度应用,提供高性能和高能效。
PowerEdge XE9685L是一款高密度4U液冷服务器,专为人工智能、机器学习、高性能计算和其他数据密集型工作负载而设计。它采用双AMD第五代EPYC中央处理器,搭配Nvidia HGX H200显卡或Nvidia B200平台。
机架上有多达12个外围组件互连 Express 插槽,可优化存储连接和最大输入/输出速度。每个机架最多可容纳96个英伟达GPU。戴尔的服务器和网络产品高级副总裁Arunkumar Narayanan表示,新服务器支持196个CPU内核和96个GPU,将提供业界最高的GPU密度。
他表示:“我们将在AI Factory集成所有这些功能,因此客户只需要等着到货之后插上电源就可以了。”“液冷服务器和风冷服务器都将安装完毕,整个系统将作为一个解决方案运行。如果出现任何问题,只需给戴尔拨打一个支持电话,戴尔就会处理整个问题。”
4U风冷式PowerEdge XE7740采用了双英特尔Xeon 6处理器,它使用了Intel Performance Cores,并有多达8个双宽加速器——包括Intel Gaudi 3 AI加速器或者Nvidia H200 NVL Tensor Core GPUs——或者多达16个单宽加速器,例如Nvidia L4 Tensor Core GPU。P-Cores是一种针对高性能和密集型工作负载而优化的处理器内核。
戴尔的服务器和网络产品高级副总裁Arunkumar Narayanan表示,新平台的GPU容量是前代 R760X 的两倍。他表示:“我们预计这将是我们在人工智能企业推理类产品中最成功的平台。”
戴尔还表示,它计划用为Integrated Rack 7000设计的新型PowerEdge XE服务器支持即将推出的Nvidia GB200 Grace Blackwell NVL4 Superchip,Integrated Rack 7000是一种液冷高密度计算基础架构,具有可扩展的电源管理功能,该功能是上个月发布的。IR 7000 可在50OU标准机架中支持每个机架最多144个GPU。
今年早些时候宣布的Dell Data Lakehouse更新增加了对Apache Spark的支持,以实现大规模分布式数据处理,为数据分析、管理、处理和分析提供统一的方法。
Dell AI Factory with Nvidia更新增加了对英伟达HGX H200和H100NVL的支持,性能比Nvidia HGX H100高出1.9倍。这使用户能够利用PowerEdge、Dell PowerScale和Nvidia AI Enterprise软件及生成式人工智能工具执行更复杂的查询并加速检索增强生成操作。
新的人工智能个人电脑验证设计(Validated Designs for AI PC)现已推出,这些开源指南旨在促进Dell AI PCs上采用神经处理单元技术的人工智能应用的开发。开发人员可以定制模块化设计,将大型语言模型、视觉、文本和语音等功能集成到应用中,这些应用可以跨平台部署,不受处理器限制。
戴尔还在扩展专业服务产品线,包括可持续数据中心、数据管理服务、人工智能网络服务以及协助实施ServiceNow Inc.’s Now Assist,这是一款由人工智能驱动的生成式产品,利用生成式人工智能提高生产力和工作流程效率。
好文章,需要你的鼓励
K Prize是由Databricks和Perplexity联合创始人推出的AI编程挑战赛,首轮比赛结果显示,获胜者巴西工程师Eduardo Rocha de Andrade仅答对7.5%的题目就获得5万美元奖金。该测试基于GitHub真实问题,采用定时提交系统防止针对性训练,与SWE-Bench 75%的最高得分形成鲜明对比。创始人承诺向首个在该测试中得分超过90%的开源模型提供100万美元奖励。
T-Tech公司研究团队开发了SAE Boost助推器系统,通过训练专门的"错误补偿器"来增强AI理解工具对专业领域的理解能力。该系统在化学、俄语和外交等领域测试中显示出显著改进效果,同时完全保持原有通用能力。这种模块化设计为AI系统的持续优化提供了安全可靠的路径,对AI可解释性研究具有重要意义。
阿里巴巴通义千问团队发布开源编程模型Qwen3-Coder-480B-A35B-Instruct,专门用于软件开发辅助。该模型采用混合专家架构,拥有4800亿参数,支持25.6万token上下文长度,可在数秒内创建完整功能应用。在SWE-bench基准测试中得分67.0%,表现优于GPT-4和Gemini。模型基于Apache 2.0开源许可,企业可免费使用。AI研究者称其可能是目前最佳编程模型,特别适合企业级代码库理解、自动化代码审查和CI/CD系统集成。
斯坦福大学研究团队开发出革命性AI系统,能够像生物学家一样"看懂"蛋白质三维结构并预测功能。该系统通过多层次分析方法,在蛋白质功能预测方面达到90%以上准确率,为新药开发和精准医疗开辟新道路。这项技术不仅加速了蛋白质研究进程,更为解决复杂疾病提供了强大的AI助手,预示着人工智能与生物医学融合的美好前景。