Developer Cloud能否夺走英伟达的风头?
英特尔正努力对外发布尚在开发的硬件,同时辅以对开源的高度重视,希望借此将自身与竞争对手区分开来、吸引更多开发人员使用其云方案。
英特尔Developer Cloud集团副总裁Markus Flierl是一位资深IT专家,曾在Sun被甲骨文收购之后在英伟达担任过GPU云基础设施负责人,而他的下一份工作就是来到英特尔。
Flierl参加了最近召开的Kubecon Europe 2024大会,并在采访当中强调英特尔的路线同AI骄子英伟达有着“根本不同”。
他指出,“一切都是开放的。我们热情鼓励社区参与进来并与我们合作,而不像英伟达那样仍在追求专有度更高的战略。”
但平心而论,英伟达也是众多开源项目的重要贡献者,包括Kubernetes、Docker乃至Linux内核项目等。
英特尔最近开源了由Intel Granulate开发的Continuous Profiler,借以提高CPU性能。相关理论认为,开发团队可以运行优化代理以发现代码中的瓶颈,进而提高应用程序的执行效率。
这样的慷慨立场也将使英特尔受益,最终吸引更多软件针对英特尔硬件进行优化。
Flierl表示“确实如此。我认为与一部分竞争对手相比,我们的最大区别在于保持高度开放。我们相信社区与合作,而目前只是我们的态度体现之一。我们希望人们能够优化软件,并最大限度利用我们的硬件。”
英特尔的Developer Cloud将允许开发人员访问其最新硬件,甚至能够比云领域的竞争对手提前几个月接触到芯片。但必须承认的是,英特尔在数据中心覆盖范围方面仍无法与各大云巨头相提并论。
Flierl解释称,“我们目前的数据中心主要位于北美,而且是租来的。但这只是时间问题,毕竟我两年前才加入英特尔,而建设一处数据中心往往需要三年时间。”
“而且对于承载AI需求的数据中心来说,建设工作也变得越来越困难……这些都是极度耗电的工作负载。”
我们询问是否有一家芯片巨头,能够设计出以更低功耗完成更多工作的芯片。
Flierl笑着回答,“也许可以尝试用Granulate来优化性能。”
谈到英特尔的下一处数据中心选址,Flierl表示“目前看可能不会选在北美。我们正在欧洲物色数据中心位置,同时也在考虑亚太地区。”
“我们还在考虑与当地供应商建立合作伙伴关系,帮助我们借对方的基础设施运营主权云。”
Flierl将英特尔的Developer Cloud计划称为“一条双向道路。”
“一方面,我们希望尽早接触战略客户;另一方面,通过直接与最终客户对接,我们也能直接获得反馈。”
“传统上,我们的模式是向OEM销售,再向CSP销售,最后由他们向最终客户销售……而现在这种方式的好处就是我们能直接与最终客户对接。”
“我们是世界上唯一一家亲自设计芯片、制造芯片并将其以云服务形式交付的公司。”
然而,英特尔仍未能打造出自己的AI芯片。
Flierl坦言,“的确如此。谷歌原研开发了自己的TensorFlow芯片,但根本不对外销售。只能说英特尔在某些方面仍具有一些独特优势。”
那么英特尔的种种安排能否说服开发人员选择其云方案,而非竞争对手的同类选项?Flierl对此抱有信心,并认为Developer Cloud服务的最大卖点,就是跨越裸机Xeon到托管Kubernetes的出色灵活性。
他总结道,“大家可以访问堆栈中的不同层,具体取决于想要执行何种操作……之后,这些服务能够跨不同实例类型使用,这样用户就能看到当前工作负载在不同CPU上运行情况如何、在Gaudi上运行情况如何、在GPU上运行情况如何等。最后根据看到的结果,对工作负载进行针对性优化。”
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。