有一家初创公司的负责人表示,高端处理器和加速器应该被作为一项服务进行售卖。他还提到了一种出现在互联网边缘的小型数据中心,以及来自Open19 Foundation的规范。
Packet是一家提供运行在自有数据中心内的服务的初创公司,该公司创始人、首席执行官Zac Smith表示,“我们再次迎来了芯片的黄金时代......我们看到很多硬件创新正在发生,”这是个好消息。
但坏消息是,“企业不想购买硬件,他们甚至不想堆叠英特尔CPU,更不用说那些他们没有试过的东西。”他成立的第一家初创公司名为Voxel,该公司在帮助那些基础设施即服务领域的先驱公司的同时,也与亚马逊AWS进行合作。
Voxel在2011年被收购。Smith新打造的初创公司Packet则是专注于满足各种需求和特殊要求——特别是在机器学习等新兴领域——的中小型客户。
如今,很多企业越来越多地由千禧一代经营着,他们自己“并不想拥有一辆汽车或者一所房子,所以他们可能也不想购买一个会在未来18个月贬值的AI加速器。”相反,他们想要有一种芯片即服务,可以像消费产品一样不断升级换代。
AWS和谷歌等公有云巨头半导体公司带来了挑战。他表示,“大多数公司把他们所有资金都用在了研发上,然后却遇到了分销问题”,因为传统上使用的参考设计和OEM渠道对于公有云提供商和用户来说,不仅速度太慢,而且不够灵活。
云服务——包括第二梯队的数据中心运营商,例如Equinix和Packet——代表了一个新的分销渠道,产品上市时间进一步缩短。“目前,硬件虽然不用像软件那样快速迭代,但硬件要能够做到这一点,”Smith说。
云巨头已经开创了芯片即服务的先河。AWS提供了越来越多基于FPGA、GPU、x86以及自定义芯片的各种服务。
到目前为止,Packet已经在成立三年半的时间里,从戴尔、三星和软银等公司那里筹集了4000万美元的风险资金。如今,Packet为近800家客户运行着19个数据中心,但只有大约100名员工。
在网络边缘“播种”小型数据中心
Packet正在探索的另一个增长领域,是位于网络边缘的中小型数据中心。
AT&T等电信公司也计划构建这种数据中心网络,以改善和扩展自己向城区的服务,一部分是通过在本地更多地匹配Netflix等内容供应商来实现的。但是Smith说,到目前为止,有很多专注于向重点领域提供特定应用的公司走在了前沿。
作为其90天边缘访问计划的一部分,Packet在今年3月份发布了3个站点,与40家客户一起做概念测试,包括Sprint和Federated Wireless。他说:“我们还处于培养皿阶段,目标是向客户学习。”
他补充说:“这就像云计算的早期阶段一样,”在云计算初期,亚马逊、Voxel和其他一些公司提供了各式服务,他们从客户那里学到他们想要的东西,并且会为此付费。
目前的重点是小范围地展示他们能够快速提供地理位置服务的能力。他表示:“如果没有人知道这种商业模式,那么大规模推出这种方法并且做错了的话,代价是很大的。”
“我们还在与芯片公司合作,让他们更贴近客户及他们的需求。如果新的边缘模型在90天内将你带入100个城市,那么你就可以轻松添加新的技术功能了。”
另外,Open19 Foundation也正式推出了第一个针对使用标准19英寸机架中小型数据中心的规范,包括特有的电源架设计和简化的布线系统,面向那些一个月可能要采购几十台或几百台服务器的公司。
Smith说,使用该规范的早期版本,“我用不到1万美元就部署了无服务器的多个机架,随后轻松地添加服务器,将部署时间从数月缩短到数个小时”,减少用于支付给布线专家(每小时收费300美元)的费用。
这个消息是在开放计算项目(OCP)年度峰会召开前两天发布的。OCP为数据中心巨头们规定了各种系统外形尺寸。Apple、Facebook、谷歌和微软等OCP成员都可以推出他们自己的规范,他们通常会购买数千台所谓的L11系统、预配置的服务器和交换机机架。
作为Open19基金会成员之一,Smith表示,该组织的下一个重要举措是在5月即将举办的活动上展示基于该组织规范的商业产品,以及公布这些产品的客户名单。OCP的各项活动已经吸引了很多希望可以赢得网络巨头青睐的厂商,这些巨头们每个月可能要部署数千台服务器。
Open19的下一步就是研究针对液体冷却子系统的规范,以及加强网络规格以支持八个光学通道。一些成员企业已经开始研究“水冷却的简化设计,现在这种设计成本极高且非常复杂,并且不是必需的”。
Smith希望第一批规范和系统将吸引更多成员加入Open19。他说:“今年是把范围扩大到早期采用者之外,我们的挑战就是要跨越这个鸿沟。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。