至顶网服务器频道 09月25日 新闻消息(文/董培欣):
19号英特尔FPGA技术大会(IFTD)在北京召开,会后英特尔公司可编程解决方案事业部副总裁兼客户体验事业部总经理 Rina Raman女士接受了记者的采访。向大家介绍了FPGA怎么样帮助我们加速实现一个智慧的互联的世界:
根据预测,到2020年,将会有500亿个终端联网,现在我们联网的终端数量是80亿个,未来联网的这些终端数量比现在所需要的带宽每一个都要高。思科预测到2020年IP的流量会达到2300EB量级每年,数据中心会和这些终端连接起来,这些终端又会和数据中心实现连接,这样我们就称为一个良性的循环,这个循环开始随着物联网的发展会加速,意味着网络就必须要在更高的速度上处理更多的数据,数据中心也必须要做更复杂的计算,处理更大的数据集,即使嵌入式的终端和设备也要做很多本地的计算。
5G无线通讯、雷达和航天、网络的转型、云计算、智慧城市和无人驾驶车辆。无论是哪个市场,实际上它们都面临着同样的挑战,就是连接的数量在急剧增长,计算的复杂度也在不断地增长,这就会带来瓶颈和热点。这个时候,FPGA就可以帮助我们很好地应对这些挑战。利用FPGA,你的系统的设计不会被锁定,开发时间没有那么长,而且相比这些专用的硬件来说,它更具有灵活性。
现在我们可以看到FPGA也越来越发挥着重要的作用,特别是在需要灵活加速的时候,因为算法也在不断地发展,而且我们所处的环境当中加速的工作负载也在动态地变化,所以FPGA有以下的好处,相当于一个软件定义的硬件,可以满足性能和计算方面的要求。另外,还有一定的灵活性,能够支持未来的计算和商业需求不断地变化。
大家可以把FPGA想象成一种先进的多功能的加速器,一方面能够带来最大的编程的灵活性,支持高度差异化的产品,你还可以在现场进行重新配置,虚拟加速任何数字的算法。另外,他们也是支持并行运算的,所以,他们特别适合未来计算的世界,更重要的是他们的性能从吞吐量,从实施的速度和能耗的角度来说,比CPU或者是GPU要优上十倍。
另外可以看到它可以以更低的时延处理更大的数据,比传统的在硬件产品上跑的基于软件的产品更快。就是因为FPGA有以上这些好处,FPGA相当于具有硬件的性能,又具有软件的可编程的能力,所以说对异构计算的环境或者是架构来说变得尤为重要。
接下来,Rina Raman女士向我们介绍了英特尔的FPGA产品及技术发展进程:
如今,英特尔Stratix 10最新产品已经开向向用户提供样片,Arria 10的终端系列产品已经在全面生产,Cyclone 10和Max 10均已大量出货。
除了现在已经发货的产品,英特尔下一代FPGA的产品,英文名字叫做Falcon Mesa。这是英特尔基于下一代10纳米制程的新的Falcon Mesa的产品。它基于世界上最先进的FinFET制程技术,这是英特尔第二代使用HyperFlex架构产品,也是第二代基于EMIB的异构的SIP。EMIB实际上是英特尔接口的规范。
由此可以看到,在英特尔整合FPGA之后,带来了很多的更强的能力。在Stratix 10上面获得了英特尔领先业界3年的制程技术,意味着给更大的容量和更快的速度。英特尔的制程技术是全球最创新的、最领先的技术。英特尔也将它的制程技术用于Falcon Mesa的生产和制造。晶体管的数量每两年会增加一倍,那就意味着单位面积的成本会增加,但是,晶体管数量翻一倍意味着性能的改善,从而使每个晶体管的成本降下来了。
最后Rina Raman女士向我们表示:“我们面临的挑战是非常复杂的,面对这样的复杂性,可能需要不同的解决方案来应对挑战。英特尔认为FPGA实际上能够帮助我们加速计算,帮助我们更好地应对今天以及未来数据的需求。”
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
查尔斯大学和意大利布鲁诺·凯斯勒基金会的研究团队首次系统性解决了同声传译AI系统延迟评估的准确性问题。他们发现现有评估方法存在严重偏差,常给出相互矛盾的结果,并提出了YAAL新指标和SOFTSEGMENTER对齐工具。YAAL准确性达96%,比传统方法提升20多个百分点。研究还开发了专门的长音频评估工具LongYAAL,为AI翻译技术发展提供了可靠的测量标准。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
印度理工学院团队构建了史上最大规模印度文化AI测试基准DRISHTIKON,包含64288道多语言多模态题目,覆盖15种语言和36个地区。研究评估了13个主流AI模型的文化理解能力,发现即使最先进的AI也存在显著文化盲区,特别是在低资源语言和复杂推理任务上表现不佳,为构建文化感知AI提供了重要指导。