Manus近日推出基于Stripe可认领沙盒 (Claimable Sandbox)技术的创新模式,实现“先构建,后注册”的全新支付系统工作流程。该技术让企业无需提前注册即可在真实环境中构建和测试业务创意,加速其商业化变现。
Manus携手Stripe“可认领沙盒”,加速用户产品商业化变现
在推进支付系统建设的过程中,许多创业者虽已拥有清晰的商业构想,却不得不中断工作流程,化身“支付专家”,在控制面板、回调接口与API密钥之间反复切换,只为让项目启动。为解决这一问题,Manus与Stripe携手,从零重构整个流程。这一合作的目标旨在使更多全球创作者无需亲自处理繁杂的技术步骤,能够以最快、最安全的方式将创意转化为收入。
传统支付集成流程的第一步往往从创建支付服务账户开始。Stripe与Manus颠覆了这一常规,使开发者无需注册即可立即启动业务构建。这项实现“先构建、后注册”工作流程的核心技术依托于Stripe的可认领沙盒 (Claimable Sandbox)。这一突破性技术是一个可由程序自动创建的、功能完整的临时Stripe账户,由Manus生成,彻底消除了注册流程这一最大障碍。
企业无需填写任何表格,即可开始构建和测试业务创意。同时,它是Stripe实时系统的完整复制版,企业可以在其中测试从订阅创建到支付失败处理的每一个环节,而不会影响真实客户或资金安全。只有对网站完全满意时,才需要前往Stripe进行KYC(身份验证),正式接入支付功能。
正如Stripe AI首席营收官Maia Josebachvili所言:“六成来自AI代码生成平台的开发者都会在Stripe创建全新的账户。如今,越来越多的人开始使用AI代码生成平台来构建产品,若要为产品接入支付,则意味着必须‘跳出流程’:提前注册账户、搭建测试环境、前后不断切换,才能完成第一次收费。而现在,Stripe的沙盒可以在这些平台中原生运行,让开发者能够在构建产品的同一界面直接完成支付集成。”
“Stripe凭借其卓越的技术和对Manus需求的深刻理解为Manus的商业化变现提供了支持。在 Manus 1.5版本中,我们正探索如何让智能体自主搭建并运维网络工具,在Stripe的 Claimable Sandboxes支持下,集成了支付功能,能助力全球创作者实现自身作品的商业化变现。”Manus联合创始人兼首席产品官张涛表示。
Stripe Claimable Sandbox专为AI驱动的开发模式设计,使得像Manus这样的智能体能够在可控的环境中安全、高效地为企业搭建并配置完整的支付系统。当企业确认一切设置完善后,只需领取该沙盒账户,由Manus配置的包括产品信息、定价方案和回调接口设置在内的所有内容将无缝迁移至专属的正式Stripe账户中。这意味着从上线第一天起,企业便拥有一个可直接投入使用的支付系统。
Stripe期待能够将Claimable Sandbox这一突破性技术带给更多企业及创业者,加速其商业化变现。
高效集成Stripe产品,快速开启全球营收之路
Manus打造了无需过多人工干预、即可自主拆解复杂任务的自主式智能体。在推出Manus后,公司亟待一个响应速度更快的支付合作伙伴,既能提供实时支持,又能消除运营瓶颈。为抓住爆火AI产品的市场需求红利,Manus需要搭建一套完整的支付堆栈,包括订阅计费、欺诈预防、全球税务合规及发票开具等功能,且必须快速落地。
借助Stripe的专业服务,Manus高效集成了Stripe结账优化套件、自动化税务合规等产品。目前,Manus超过半数的用户交易通过Stripe Link完成,在推出后不到一个月即支持全球200多个国家或地区的付款,其中包括美国、欧盟、英国、日本和澳大利亚等主要市场。在推出付费方案仅四个月后,Manus的收入运行率(Revenue Run Rate)就达到了9000万美元。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。