人工智能基础设施初创公司Majestic Labs今日正式成立,并获得1亿美元首轮融资。
该公司通过由Bow Wave Capital领投的A轮融资筹集了大部分资金7100万美元。Lux Capital领投了Majestic Labs早期的种子投资。这家硬件制造商还得到了SBI、Upfront、Grove Ventures、Hetz Ventures、QP Ventures、Aidenlair Global和TAL Ventures的支持。
Majestic Labs由芯片工程高管Ofer Schacham、Masumi Reynders和Sha Rabii领导。首席执行官Schacham此前领导谷歌为其消费设备开发芯片的团队。Reynders和Rabii也曾在Alphabet旗下半导体部门担任高级职务。
大语言模型在处理提示时会产生大量临时数据。因此,它们必须部署在具有大内存池的服务器上以容纳这些数据。此外,大语言模型还需要能够在服务器内存池和显卡之间高速移动数据。
增加AI集群的内存容量通常需要公司添加服务器,这反过来又需要部署更多支持设备,如冷却系统。这大大增加了硬件成本。Majestic Labs正在通过一种服务器来解决这一挑战,该公司表示其服务器将包含相当于10个机架的内存容量。一台服务器只需要机架冷却设备的一小部分,从而降低了采购成本和功耗。
Majestic Labs表示其系统包含一个"定制加速器"芯片和一个同样内部开发的内存接口模块。该服务器可配备高达128TB的RAM。Majestic Labs没有具体说明其系统包含什么类型的RAM,但将该技术描述为"极快、节能、高带宽内存",这暗示可能使用的是HBM内存。HBM是一种特别高性能的RAM类型,在AI集群中无处不在。
标准RAM芯片包含单层内存单元。而HBM模块则包含十多个层叠在一起的内存单元层。这些层通过数百万个被称为硅通孔的微型铜填充电线连接在一起。
增加AI集群服务器中的内存量可以提升大语言模型性能。然而,性能提升的幅度因模型执行的推理任务而异。大语言模型在用户输入提示到第一个输出Token之间执行的计算更多受到显卡性能而非内存速度的影响。相比之下,用于生成后续输出Token的计算可以通过向AI集群添加更多内存而显著加速。
Majestic Labs的服务器不仅可以运行推理工作负载,还可以训练新的大语言模型。"我们的系统支持每台服务器更多用户,缩短训练时间,将本地和云端的AI工作负载提升到新高度,"Rabii说。
据CNBC报道,Majestic Labs计划向超大规模数据中心运营商、金融机构和制药公司销售其硬件。该初创公司计划在2027年交付首批服务器。与此同时,它将致力于扩大工程团队,增强与服务器一起交付的软件栈,并筹集额外资金。
Q&A
Q1:Majestic Labs的服务器相比传统服务器有什么优势?
A:Majestic Labs的服务器包含相当于10个机架的内存容量,但只需要机架冷却设备的一小部分,大大降低了采购成本和功耗。该服务器可配备高达128TB的RAM,并包含定制加速器芯片和内部开发的内存接口模块。
Q2:为什么大语言模型需要大内存服务器?
A:大语言模型在处理提示时会产生大量临时数据,需要部署在具有大内存池的服务器上以容纳这些数据。此外,大语言模型还需要能够在服务器内存池和显卡之间高速移动数据,增加内存量可以显著加速后续输出Token的计算。
Q3:Majestic Labs什么时候开始交付产品?
A:Majestic Labs计划在2027年交付首批服务器。在此期间,公司将致力于扩大工程团队,增强与服务器一起交付的软件栈,并筹集额外资金。目标客户包括超大规模数据中心运营商、金融机构和制药公司。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。