今日,以“创新加速,塑造FPGA芯未来”为主题的2023年英特尔®FPGA中国技术日在北京成功举行。期间,英特尔不仅披露了包括Agilex® 3系列、Agilex® 5系列在内的多款FPGA产品细节及其早期验证计划,同时亦分享了与产业伙伴在数据中心、AI、网络、嵌入式等关键领域的诸多应用,旨在以逐步扩大的产品组合进一步满足广泛细分市场需求的同时,深度展示英特尔在加速可编程创新、推动中国行业数智化进程上的重要作用。
“ 在新场景、新应用海量增长的驱动下,中国本地市场对于FPGA产品的需求也在日益多元化和快速扩展。我们始终致力于以中国客户的实际需求为导向,基于领先的FPGA产品和软件为千行百业提供全场景的解决方案。
——叶唯琛
英特尔可编程方案事业部中国总经理
”
随着数据与算力需求的激增,市场亟需兼具高性能与低功耗的创新芯片以满足严苛的工作负载需求。对此,英特尔推出强大的Agilex FPGA产品组合,帮助开发人员在复杂的设计环境中快速构建从云到边缘的解决方案,同时以灵活、定制化的平台功能和强大的可扩展性满足各层级对可编程逻辑的需求。近日,英特尔披露其最新FPGA产品路线图。
●英特尔Agilex® 3 FPGA系列:外形小巧,在功耗和成本上进行了大幅优化,且拥有广泛的IO支持。其中,即将推出的Agilex 3 B系列FPGA面向电路板和系统管理,包括服务器平台管理(PFM)应用;C系列FPGA则针对一系列复杂可编程逻辑设备(CPLD)和FPGA应用提供更多功能以用于垂直市场领域。
●英特尔Agilex® 5 FPGA系列:采用第二代英特尔® HyperfleTM FPGA架构和英特尔7制程工艺,对晶体管的每瓦性能进行了优化,从而实现出色的能耗。同时采用英特尔上一代高端产品中嵌入的业界首个针对AI优化的模块,并将其扩展至Agilex 5 FPGA的中端产品中,为边缘AI应用提供了理想选择。其中,Agilex 5 E系列FPGA在功耗和尺寸上进行了优化,将于第四季度起,逐步向早期体验客户提供样品,并在明年第一季度开始大批量交付工程样品与提供相关设计软件。
●英特尔Agilex® 7 FPGA系列:采用CXL提高带宽和连接性能,并借助HBM加快内存访问速度,该具有性能功耗比优势的Agilex 7 M、F和I系列FPGA现已上市。其中,Agilex 7 FPGA R-Tile相较于其他同类FPGA产品,其每个端口的PCIe5.0带宽速度提高了2倍,CXL带宽提高了4倍,现已大量出货。
值得一提的是,除了全面的FPGA产品组合,英特尔同时打造结构化ASIC解决方案。相较于FPGA,ASIC的开发时间较长,可满足更低的功耗和单位成本需求。英特尔构建的由FPGA、结构化ASIC和ASIC组成的英特尔®自定义逻辑组合,旨在以极高的灵活度支持市场对于不同功耗、成本和上市时间的多样化需求。
与此同时,为增强版本与设施的可迁移性,简化FPGA开发流程并提升易用性,英特尔持续投入软件与IP功能开发,提供了诸如专为全系列FPGA打造的卓越设计软件英特尔®Quartus® Prime、开放式FPGA堆栈(OFS)开源版本,以及英特尔FPGA AI套件等配套软件堆栈。目前,得益于最新发布的OFS开源版本,开发人员可自由访问开源硬件代码、软件代码和技术文档,进行平台和工作负载开发。
面对AI应用场景在云端、网络和边缘等领域的高速增长,以及市场对产品日益多样化的需求,英特尔亦致力于以全栈的FPGA产品,为从边缘到云提供基于FPGA的AI可扩展性,来灵活运行多种工作负载,并以较低的总体拥有成本(TCO),充分释放AI潜能,迎接当下和未来的挑战。
未来,英特尔将继续携手更多中国产业生态伙伴,以卓越的软硬件产品组合、出色的开发者体验,以及行业领先的供应链灵活应对市场挑战,进一步推动FPGA技术创新及成果落地,加速产业智能化发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。