英伟达公司今日宣布,其Blackwell芯片已在台湾积体电路制造公司的亚利桑那工厂进入批量生产阶段。
这一消息标志着这家显卡制造商将更多供应链引入美国的努力取得了重大里程碑。这些图形处理器是当前人工智能模型和应用热潮的主要驱动力。
作为全球最大的代工芯片制造商,台积电去年年底在凤凰城附近开设了首家工厂。该工厂生产基于公司四纳米制造工艺的处理器。该工艺比台积电最新的二纳米技术落后两代,二纳米技术计划于今年晚些时候进入大规模生产。
英伟达并不是该工厂的首个客户。去年年底,据报道苹果公司开始使用该工厂生产为其2022年iPhone系列提供动力的A16仿生系统级芯片。
英伟达首席执行官黄仁勋今天参观了该工厂,并在现场生产的第一块Blackwell晶圆上签名。黄仁勋表示:"这是美国近代历史上第一次由最先进的工厂在美国本土制造最重要的芯片。"
Blackwell架构相比英伟达上一代Hopper芯片设计引入了多项改进。其中包括内置Transformer引擎的新版本,这是一个专为运行大语言模型而优化的模块。英伟达还添加了一个名为解压缩引擎的组件,旨在加速数据库查询。
Blackwell架构是多款英伟达芯片的基础。最先进的产品Blackwell Ultra可为AI工作负载提供15 petaflops的性能。英伟达还将该架构集成到多款消费级显卡和为其新推出的DGX Spark工作站提供动力的芯片中。
台积电计划在本十年末在亚利桑那州再建设两座工厂。其中一座将能够生产基于公司即将推出的A16工艺的芯片,这是其二纳米工艺的计划继任者。该技术将采用增强的电源传输布线和由纳米片制成的晶体管。
英伟达与台积电的合作是一项涉及其他供应商的广泛制造计划的一部分。
在亚利桑那州,这家显卡制造商将与日月光科技和矽品精密工业合作生产芯片封装。这是英伟达用来将Blackwell芯片的不同组件连接成单一产品的技术。该公司的旗舰显卡包含两个独立的计算芯片和HSM内存模块。
在德克萨斯州,英伟达将与合作伙伴建设两个"超级计算机制造工厂"。该公司销售名为DGX系列的AI设备产品线,可以组装成超级计算机。英伟达预计这些工厂将在未来12至15个月内开始大规模生产。
Q&A
Q1:Blackwell芯片有什么特点和优势?
A:Blackwell架构引入了多项改进,包括新版本的内置Transformer引擎,专为运行大语言模型而优化,还添加了解压缩引擎来加速数据库查询。最先进的Blackwell Ultra可为AI工作负载提供15 petaflops的性能。
Q2:台积电亚利桑那工厂使用什么制造工艺?
A:台积电亚利桑那工厂使用四纳米制造工艺生产处理器。该工艺比台积电最新的二纳米技术落后两代,而二纳米技术计划于今年晚些时候进入大规模生产。
Q3:英伟达在美国还有哪些制造计划?
A:除了与台积电合作外,英伟达还将在亚利桑那州与日月光科技和矽品精密工业合作生产芯片封装,在德克萨斯州建设两个超级计算机制造工厂,用于生产DGX系列AI设备,预计12至15个月内开始大规模生产。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。