据报道,Meta Platforms Inc. 正在开发面向运动员的 Oakley 品牌智能眼镜,并探索其他新型可穿戴设备。
根据 Bloomberg 记者 Mark Gurman 的报道,除了 Oakley 品牌智能眼镜外,Meta 的设备部门 Reality Labs 还计划在今年晚些时候推出带内置显示屏的高端眼镜。据说,开发计划中还包括一些与 Apple Inc. 的智能手表和 Airpods 竞争的产品。
Gurman 还表示,该公司在其首款真正的增强现实产品(被称为"科技行业的圣杯")研发上取得进展,计划于 2027 年左右发布。这似乎指的是 Meta 在去年 9 月展示原型的 Orion 眼镜,该产品旨在将数字信息叠加到物理世界中。
Orion 眼镜预计将具备全息投影、增强空间感知以及实时与虚拟对象交互等高级功能。如果 Meta 能够成功推出这款眼镜,可能会彻底改变用户与数字和物理环境的交互方式。
Gurman 还报道称,Meta 将在 2025 年推出一款设计更接近当前 Ray-Ban 眼镜的高端产品。这款内部代号为 "Hypernova" 的产品将在右侧镜片底部配备显示屏,可以将信息投射到用户的视野中,零售价可能在 1,000 美元左右。
Meta 与全球最大眼镜制造商 EssilorLuxottica SA (该公司生产 Oakley 和 Rayban 眼镜) 保持着长期合作关系,Rayban 是 Meta 当前智能眼镜的核心品牌。今年 7 月还有报道称,Meta 正在洽谈收购 EssilorLuxottica 的少数股权。
令人意外的是,Meta 可能会涉足 Apple 的领域,开发智能耳机和手表。
虽然 Meta 已将自己定位为虚拟和增强现实产品的领头羊,但智能手表和耳机是另一回事。Meta 在一般消费产品上并非总是表现出色,特别是十多年前的 Facebook 手机就是一个例子。
十年时间对科技行业来说很长,Meta 也从 Facebook 手机吸取了教训,但要创造能够获得广泛用户群的一般消费科技产品仍然不易。Google 通过其 Pixel 产品在智能手机和平板电脑市场上的小份额就是一个例子。如果 Google 在硬件销售上都会遇到困难,Meta 可能也会面临类似挑战。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。