现代FGPA(现场可编程门阵列)已不仅仅是工程师可以随意定制的计算应用实时可编程芯片了。现代FPGA已经成了智能的、适应性极强的处理引擎了,这样的处理引擎对于新兴的机器学习和5G无线基础设施市场至关重要,原因是这些领域的发展和创新速度太快了。其他依靠FPGA技术推动创新的市场包括太空和卫星应用,但这两个领域在环境方面的要求则更严苛。Xilinx(赛灵思)今天宣布推出旗下新的20nm耐辐射Kintex UltraScale XQRKU060系列FPGA,该系列可望在诸多太空级应用的下一代设计中找到很好的定位。
尽管多家半导体OEM厂商已经在7nm(纳米)节点上推出了产品,而Xilinx新推出的Kintex UltraScale FPGA则采用了主力20nm工艺技术。20nm工艺听起来像是过气的芯片技术,但在太空方面,20nm工艺实际上是先进技术。太空级半导体芯片需具耐辐射性,必须使用高度可靠且经过验证的芯片制造技术。Xilinx的上一代太空级FPGA建在65nm节点上,新的20nm芯片技术将空间应用大幅推进了三代的工艺节点。简而言之,太空级部件不能够出故障、需要承受冲击、振动和辐射,同时体积要小包装要轻便,而且又要能提供高水平的计算和AI(人工智能)处理能力。 Xilinx表示,“ XQRKU060是业界唯一可以在无限太空轨道里真正的重配置解决方案。而且还能进行实时机载处理和机器学习加速,这些可以令卫星实时更新,能按需提供视频,并执行“及时”计算处理复杂的算法。”
太空级别Xilinx Kintex UltraSCALE耐辐射FPGA (图:Xilinx)
Xilinx 的Kintex XQRKU060在机器学习方面也是一流的,特别是边缘推理加速方面,这里的边缘或许可以说是“外太空”边缘。新型Xilinx XQRKU060可提供5.7 TOPs 尖峰INT8的性能并具有高度可扩展精度,内置密集的可编程逻辑阵列,数字信号处理(DSP)功能比上一代产品提高了10倍,还支持TensorFlow和PyTorch等机器学习开发工具。 Xilinx称,XQRKU060的机器学习吞吐量比上一代XQR5QV系列提高了近25倍。 Xilinx指,“XQRKU060的机器学习功能适用于解决各种问题,包括科学分析、对象检测和图像分类(例如云检测),可以提高处理效率并减少空间和地面决策延迟。”
此外,读者大可以想像得到,能在发射前及发射后在轨道上重新配置的功能很重要,是区分先进FGPA解决方案和普通解决方案的关键,原因是尖端的空间应用程序常常需要顺着各种曲线轨迹飞来飞去。换句话说,人工智能要能够学习、推断、分析,然后做出决定如何重新配置自身或交由工程师决定。这些听起来像是钢铁侠电影里的东西,是不是?
软件工具方面,Xilinx指XQRKU060会得到旗下成熟的Vivado设计套件的支持,Vivado套件同样也支持机器学习行业标准框架。另外,Xilinx旗下人工智能统一软件平台也有计划支持XQRKU060,芯片和生产级加速器板都会支持。
Xilinx指,20nm RT Kintex UltraScale太空级XQRKU060 FPGA(https://www.xilinx.com/products/silicon-devices/fpga/rt-kintex-ultrascale.htm)飞行元件将于今年9月下旬在MIL-PRF-38535规格设备里提供。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。