英特尔今天对数据中心芯片产品组合进行了扩充,推出了一系列针对服务器优化的Flex Series GPU。

Flex Series包括两款GPU,第一款GPU配置了16个图形处理核心和12GB板载内存,第二款GPU配置了32个核心和16GB内存,而且这两款芯片都是基于英特尔Xe HPG图形架构的,该架构主要针对运行视频游戏进行了优化。
英特尔表示,这两款芯片支持各种工作负载。
Flex Series可以执行视频转码,或者更改存储视频内容的文件格式。作为日常技术运营的一部分,广播公司等类型的企业会定期执行转码。英特尔表示,Flex系列还支持基于云的视频游戏流媒体服务、虚拟桌面环境和人工智能应用。
据英特尔称,单个Flex Series芯片可以同时对多达36个分辨率为1920x1080像素的视频流进行转码。需要额外性能的企业,可以并行配置使用多个GPU。据英特尔称,10个Flex Series GPU可以集成到一台服务器中,一次处理360个视频流。
英特尔表示,在某些情况下,Flex Series 提供的性能要优于同类的Nvidia芯片。在内部性能测试中,英特尔Flex Series芯片在执行视频转码的吞吐量是Nvidia A10 GPU的5倍,且耗电量仅为后者的一半。
Flex Series的出色性能一部分得益于内置的硬件模块,该模块经过优化后可以运行AV1视频编码软件,编码或者压缩视频文件通常是转码工作流程中的一个组成部分。英特尔表示,Flex Series GPU内置的AV1模块使其比上一代编码系统AVC少30%的带宽执行处理任务。
英特尔推出Flex Series的另一个主要用途是针对视频游戏流媒体。英特尔特别提到,Android游戏开发者可以使用Flex Series芯片来处理用户设备的某些计算任务。据英特尔称,单个Flex Series GPU可以处理多达68个分辨率为1280x720像素的视频游戏流,。
英特尔副总裁、超级计算事业部总经理Jeff McVeigh表示:“当今数据中心基础设施在计算、编码、解码、移动、存储和显示视觉信息方面承受着巨大的压力。英特尔Flex Series GPU是一项突破性的设计,独特地解决了当今的计算需求,同时为未来的沉浸式体验提供了灵活性和可扩展性。”
在接下来的几个月中,英特尔预计将有六家硬件制造商推出配备Flex Series GPU的数据中心系统。据英特尔称,最初发布的这批系统将针对转码和安卓游戏流进行优化。接下来,英特尔硬件合作伙伴将推出针对桌面虚拟化、Windows游戏流和人工智能用途优化的Flex Series处理器。
Flex Series所采用的Xe HPG图形架构是英特尔为在GPU市场建立更大影响力而开发的四种架构之一。英特尔还针对数据中心推出了Xe HPC架构,旨在运行人工智能工作负载。Xe HPC芯片包含更多针对矩阵运算优化的电路,矩阵运算是神经网络用来处理数据的一种计算。
Xe HPC架构是英特尔Ponte Vecchio的基础架构,该芯片是英特尔面向数据中心市场推出的、最先进的AI芯片。Ponte Vecchio芯片包含了1000亿个晶体管,这些晶体管组织成数十个处理模块。据英特尔称,这些模块可以提供超过45 teraflops的综合性能。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。