英特尔公司在CES 2018展会上公布了一款49 qubit量子芯片,该公司CEO Brian Krznich将其称为量子计算领域的突破性进展,同时也代表着“量子优势”的下一步方向。
在英特尔的主题演讲中,Krzanich表示该公司的实验室与研究人员“致力于”推动量子计算发展,并在荷兰实验室专门建立了量子计算的测试与原型系统。
英特尔公司并没有透露与量子芯片产品的任何上市时间细节。
此外,英特尔方面还在着手测试另一套先进计算系统,即神经形态计算——其为去年9月公布的人工智能(简称AI)测试芯片Loihi即属于这一类别。
根据Krzanich的介绍,英特尔公司目前已经拥有一款功能完备的神经形态芯片,并已经从数周前开始在实验室当中执行简单的对象识别任务。在未来几年中,英特尔公司将陆续把Loihi交付给各合作伙伴,用以研究实际用例。
Krzanich在本次主题演讲当中,首先提到Meltdown与Spectre问题的解决状况。他表示众多科技企业能够共同研究并解决这些问题,实在是一项“了不起的成就”。
他同时补充称,“截至目前,我们还没有收到任何与用户数据泄露有关的消息。”
“我们预计一部分工作负载可能遭受更为严重的性能影响,因此我们将继续与业界能力工作,旨在随时间推移尽可能降低此类工作负载受到的影响。”
Krzanich同时讨论了英特尔在2018年平昌冬奥会当中扮演的技术合作伙伴角色,并表示将通过英特尔True VR解决方案以实时及点播方式提供有史以来规模最大的VR赛事内容。
该解决方案包括尚赛场及雪道放置多台360度摄像机,同时配合软件方案以确保爱好者们能够随时查看赛场上各个角度的素材,进而选择最适合的摄像机位。英特尔公司宣布,这种“身临其境”的观看体验亦将通过在NFL运动员头盔上的摄像头进行扩展,从而提供第一视角赛事观看方式。
此外,英特尔公司还将这种高内容容纳量技术推广至电影等领域,这意味着观众将有机会“扮演演员”。利用数百台摄像机,只需要一次拍摄,观看者即可通过任意视角或角度查看整个场景。
Krzanich表示,这将允许观众选择其想用于观看电影内容的角色,这类用例还能够扩展到诸如电视、广告以及游戏等用例当中。
作为其中的重要组成部分,英特尔公司宣布将与派拉蒙电影公司建立“探索性合作关系”,而派拉蒙公司主席Jim Gianopulos则表示这种技术将成为创造未来娱乐新形式的“关键所在”。
随着观众们由平面屏幕转向VR带来的身临其境的体验,Gianopulos表示派拉蒙将能够创造出比以往更接近现实的内容,从而真正邀请观众进入电影本身。
Krzanich还简要介绍了Mobileye公司的全新自动驾驶平台,他表示自动驾驶车辆“与真正实现间的距离比任何人想象中更近”。Volocopter无人驾驶出租车服务已经开始测试,其Shooting Star迷你无人机则可在无需GPS的前提下完成灯光表演。
英特尔公司还承诺在其微处理器当中使用环保材料,并力争将全部产品线皆纳入环保标记之内。另外,其承诺在未来五年内投资3亿美元改善工作场所多样性的举措也将在2018年年底之前达到“全面实现”,意味着比原本承诺提前两年完成。
英特尔公司亦在本次演讲当中展示了其定位技术SDK 1.0、Shooting Star四螺旋桨无人机、RealSense Vision Processor D4系列摄像机、第八代酷睿处理器、运行有一套AI引擎的Movidius Myriad X VPU外加可用于构建剧场演出环境的SoundVision软件。
在演出当中,音乐家将能够佩戴智能手套以通过手势控制“演奏数据”; 无人机与AI音乐家将实时演奏音乐; 定位技术与传感器及摄像机相配合以从舞蹈与杂技等动作当中收集数据。
本次展会上亮相的其它技术还包括用于AI回放的Unity3d游戏开发平台,英特尔数据支持下的StretchSense手套与鼓槌,采用英特尔处理器用于音乐生成及数据可视化的雅马哈DC5Z Disklavier,可视化开发平台Derivative TouchDesigner,Cycling 74 Max MSP数据路由方案,Autodesk Maya 3D角色创建方案,用于进行音频采样工作流与播放的Ableton,以及用于虚拟形象创作的Pixologic Zbruch数字雕塑工具。
英特尔公司还借此机会公布了其第八代酷睿处理器,将AMD的Radeon RX Vega M Graphics显示芯片同4GB第二高带宽内存(简称HBM2)相结合以及全新迷你PC NUC(配合有第八代酷睿i7处理器且专门用于VR类应用)。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。