2020年9月15日,北京——英特尔公司出席百度世界2020并公布了一系列与百度在AI、5G、数据中心和云计算基础架构方面的最新合作进展。会上,英特尔公司市场营销集团副总裁兼中国区总经理王锐女士与百度集团副总裁侯震宇先生以“智能新基建,智能新计算”为主题展开对话,深入分享了英特尔与百度覆盖端-边-云的全面合作,并解读了双方在新基建发展浪潮下共推产业智能化升级的战略构想与最佳实践。
在演讲中,王锐表示:“在中国,发展产业生态最重要的一点就是要真正扎根于本土的市场特点和用户需求。如今随着‘新基建’的全速推进和5G的大力发展,中国已进入产业互联网狂飙突进的阶段,必定会成为互联网‘下半场’的领导者。籍此,英特尔和百度将围绕端-边-云进行全面协作,以持续创新创造未来无限可能,让技术真正造福于大众与社会。”
百度集团副总裁侯震宇表示:“百度和英特尔都是非常专注于技术创新的公司,双方始终致力于通过前沿科技探索推动产业智能化变革。在新基建浪潮下,百度将与英特尔继续深化合作,把握人工智能产业机遇,为产业、社会及个人带来更多价值和红利。”
从搜索、人工智能,到自动驾驶、5G和云计算服务,英特尔和百度在过去10余年中积累了丰富的技术创新成果。其中,基于第二代和第三代英特尔至强可扩展处理器,百度与英特尔开展深入的CPU定制合作,来优化性能、热设计功耗(TDP),更好地适应百度的工作负载,降低TCO。此外,基于最新的内置BFloat16指令集的第三代英特尔至强可扩展处理器,英特尔支持百度飞桨深度学习框架优化,提供AI视觉以提供更好的语音预测服务,支持多媒体云处理等工作负载,最终实现高度优化的云管理和运维平台,帮助最终客户高效用云、轻松管云。
而进入AI时代,随着CPU、GPU、内存、AI处理器、PCIe卡等计算部件对数据中心功耗带来新的挑战,英特尔与百度开始着手48V机架服务器的设计和商业部署工作,以实现更高的机架功率密度,并降低功耗损耗、提高能效。未来,英特尔还将与百度在下一代至强可扩展处理器(Sapphire Rapids)上进行48V机架服务器的设计开发和部署工作,推动生态系统不断成熟,加速48V机架服务器相关的AIC卡、电源监控设备、风扇、电源动力系统等全组件实现平台化落地。
与此同时,随着AI和5G的快速发展和推广,数据中心对网络负载优化的需求日益凸显。为大幅提高虚拟化和负载性能,加速数据处理速度并降低整体成本,英特尔亦携手百度推动Smart NIC(智能网卡)创新。基于英特尔SoC FPGA和搭载应用程序设备队列(ADQ)技术的英特尔以太网适配器800系列,百度Smart NIC能够大幅提高端口速度,通过FPGA为CPU优化网络负载,实现海量数据的大规模处理和传输,为百度智能云打造高效、可扩展的裸金属和虚拟化环境。
此外,英特尔与百度一直围绕“5G+AI边缘计算”进行联合创新。通过英特尔的OpenNESS(Open Network Edge Services Software)开源网络边缘服务软件、百度 IME(Intelligent Mobile Edge)智能移动边缘工程平台软件,英特尔与百度充分发挥双方坚实的技术实力,帮助全行业、全生态获得高可靠性、低延时的AI边缘计算能力,推动5G+AI能力在更多商业及业务场景中落地。
值得一提的是,百度智能云作为百度技术能力To B的窗口,一直在业务侧与英特尔围绕以数据为中心的解决方案展开合作。就在近日,百度智能云宣布其智能网卡将基于最新推出的英特尔以太网适配器800系列、英特尔至强D处理器和英特尔Arria 10 FPGA等全套数据中心解决方案而打造,这同时也是英特尔以太网适配器800系列在中国市场赢来的首个落地合作。此外,围绕内存和存储,英特尔还与百度基于英特尔傲腾持久内存构建了高性能、超扩展、统一用户空间的单节点存储引擎,并同时搭配傲腾存储以及NVMe固态盘,使百度通过一套软件,就可以实现多种存储场景的配置。
展望未来,英特尔还将携手百度持续助力无人车架构平台和智慧交通车路协同计算架构的开发;共同探索移动边缘计算,为用户提供更下沉的边缘资源对接百度AI服务;与百度智能云加大基础架构技术合作,深化至强可扩展处理器与飞桨的优化工作,为百度线上AI业务带来实质收益,从而真正通过改变世界的技术,造福地球上每一个人。
好文章,需要你的鼓励
本文概述 Lightbits 推出面向 Kubernetes 的软件定义存储架构、Backblaze 降低好莱坞云存储费用、ChatGPT 增设第三方数据接口、Cloudera 加入 AI-RAN 联盟以及 Blancco 报告揭示数据清除中硬件处置的隐患等内容。
中科院团队提出Prefix Grouper方法,巧妙解决GRPO训练中的重复计算问题。通过将自注意力分解为前缀和后缀两部分,实现共享前缀的高效计算,在长文本场景下可将计算量降至原来的1/G。该方法保持与传统GRPO完全一致的训练效果,同时显著减少内存使用,支持更大组规模训练,具有即插即用特性。
今年早前大跌后,亚马逊、Alphabet、微软、Meta等巨头持续加大AI投资,带动数据中心及设备相关股票大幅反弹,提振市场信心得以迅速恢复。
这项研究由IIIT海德拉巴的Ananth Muppidi、IIT哈拉格普尔的Abhilash Nandy与Adobe研究院的Sambaran Bandyopadhyay共同完成,提出了一种名为ID-SPAM的创新方法,用于大语言模型的参数高效微调。该方法利用自注意力机制生成基于输入的软提示,使模型能够根据不同输入动态调整处理策略。实验表明,ID-SPAM在GLUE和SuperGLUE基准测试上优于现有软提示方法,并展现出出色的零样本域迁移能力。这一技术保持结构简单的同时,显著提升了模型在特定任务上的适应性。