我们说AI正在重塑各行各业,半导体产业也是,作为“卖铲人”,芯片企业更是火力全开。
美国当地时间4月9日,在Intel Vision 2024大会上,英特尔带来诸多产品更新,其中包括我们熟悉的至强处理器和Gaudi AI加速器。
品牌焕新,英特尔至强6
在数据中心领域,英特尔至强也迎来全新命名,即英特尔至强6。配备能效核(E-cores)的英特尔至强6处理器将于2024年第二季度推出,提供卓越的效率,配备性能核(P-cores)的英特尔至强6处理器将紧随其后推出,带来更高的AI性能。
其实全新至强6不只是品牌焕新那么简单,配备能效核的英特尔至强6处理器(代号为Sierra Forest)与第二代英特尔至强处理器相比,每瓦性能提高2.4倍,机架密度提高2.7倍。
而配备性能核的英特尔至强6处理器(代号为Granite Rapids)包含了对MXFP4数据格式的软件支持,与使用FP16的第四代英特尔至强处理器相比,可将下一个令牌(token)的延迟时间最多缩短6.5倍,能够运行700亿参数的Llama-2模型。
对标NVIDIA,Gaudi 3
Gaudi在英特尔是一个独特的存在。
迭代到Gaudi 3,与上一代产品相比,英特尔Gaudi 3将带来4倍的BF16 AI计算能力提升,以及1.5倍的内存带宽提升。
英特尔Gaudi 3预计可大幅缩短70亿和130亿参数Llama2模型,以及1750亿参数GPT-3模型的训练时间。此外,在Llama 7B、70B和Falcon 180B大语言模型(LLM)的推理吞吐量和能效方面也展现了出色性能。
英特尔Gaudi 3提供开放的、基于社区的软件和行业标准以太网网络,允许企业灵活地从单个节点扩展到拥有数千个节点的集群、超级集群和超大集群,支持大规模的推理、微调和训练。英特尔Gaudi 3将于2024年第二季度面向OEM厂商出货。
AI开放系统战略
在产品更新的同时,英特尔也公布了面向开放的、可扩展的AI系统的战略,其中包括硬件、软件、框架和工具。英特尔让广泛的AI开放生态系统参与者,如设备制造商、数据库提供商、系统集成商、软件和服务提供商等,能够提供满足企业特定生成式AI需求的解决方案。与此同时,亦让企业与他们已知、信任的生态系统合作伙伴展开合作并采取相应解决方案。
英特尔联合Anyscale、Articul8、DataStax、Domino、Hugging Face、KX Systems、MariaDB、MinIO、Qdrant、RedHat、Redis、SAP、VMware、Yellowbrick和Zilliz共同宣布,将创建一个开放平台助力企业推动AI创新。这一凝结全行业力量的计划旨在开发开放的、多供应商的生成式AI系统,通过RAG(检索增强生成)技术,提供一流的部署便利性、性能和价值。RAG可使企业在标准云基础设施上运行的大量现存专有数据源得到开放大语言模型(LLM)功能的增强,加速生成式AI在企业中的应用。
在该计划的初始阶段,基于安全的至强处理器和Gaudi解决方案,英特尔将面向生成式AI进程(pipelines)推出参考实现,发布技术概念框架,并继续增进英特尔Tiber开发者云平台基础设施的功能,以便为RAG及未来进程的生态系统开发和确认打下基础。英特尔鼓励生态系统进一步参与到这一开放平台的创建中来,以促进企业采用该平台,扩大解决方案的应用范围,并取得业务成果。
结语
对于英特尔而言,自身的转变不可避免。全面转向AI已经势不可挡,既有的护城河已经不复存在,新的竞争优势有待建立。已有的产品是历史包袱还是新的起步阶梯,我们拭目以待。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。