至顶网服务器频道 09月25日 新闻消息(文/董培欣):
19号英特尔FPGA技术大会(IFTD)在北京召开,会后英特尔公司可编程解决方案事业部副总裁兼客户体验事业部总经理 Rina Raman女士接受了记者的采访。向大家介绍了FPGA怎么样帮助我们加速实现一个智慧的互联的世界:
根据预测,到2020年,将会有500亿个终端联网,现在我们联网的终端数量是80亿个,未来联网的这些终端数量比现在所需要的带宽每一个都要高。思科预测到2020年IP的流量会达到2300EB量级每年,数据中心会和这些终端连接起来,这些终端又会和数据中心实现连接,这样我们就称为一个良性的循环,这个循环开始随着物联网的发展会加速,意味着网络就必须要在更高的速度上处理更多的数据,数据中心也必须要做更复杂的计算,处理更大的数据集,即使嵌入式的终端和设备也要做很多本地的计算。
5G无线通讯、雷达和航天、网络的转型、云计算、智慧城市和无人驾驶车辆。无论是哪个市场,实际上它们都面临着同样的挑战,就是连接的数量在急剧增长,计算的复杂度也在不断地增长,这就会带来瓶颈和热点。这个时候,FPGA就可以帮助我们很好地应对这些挑战。利用FPGA,你的系统的设计不会被锁定,开发时间没有那么长,而且相比这些专用的硬件来说,它更具有灵活性。
现在我们可以看到FPGA也越来越发挥着重要的作用,特别是在需要灵活加速的时候,因为算法也在不断地发展,而且我们所处的环境当中加速的工作负载也在动态地变化,所以FPGA有以下的好处,相当于一个软件定义的硬件,可以满足性能和计算方面的要求。另外,还有一定的灵活性,能够支持未来的计算和商业需求不断地变化。
大家可以把FPGA想象成一种先进的多功能的加速器,一方面能够带来最大的编程的灵活性,支持高度差异化的产品,你还可以在现场进行重新配置,虚拟加速任何数字的算法。另外,他们也是支持并行运算的,所以,他们特别适合未来计算的世界,更重要的是他们的性能从吞吐量,从实施的速度和能耗的角度来说,比CPU或者是GPU要优上十倍。
另外可以看到它可以以更低的时延处理更大的数据,比传统的在硬件产品上跑的基于软件的产品更快。就是因为FPGA有以上这些好处,FPGA相当于具有硬件的性能,又具有软件的可编程的能力,所以说对异构计算的环境或者是架构来说变得尤为重要。
接下来,Rina Raman女士向我们介绍了英特尔的FPGA产品及技术发展进程:
如今,英特尔Stratix 10最新产品已经开向向用户提供样片,Arria 10的终端系列产品已经在全面生产,Cyclone 10和Max 10均已大量出货。
除了现在已经发货的产品,英特尔下一代FPGA的产品,英文名字叫做Falcon Mesa。这是英特尔基于下一代10纳米制程的新的Falcon Mesa的产品。它基于世界上最先进的FinFET制程技术,这是英特尔第二代使用HyperFlex架构产品,也是第二代基于EMIB的异构的SIP。EMIB实际上是英特尔接口的规范。
由此可以看到,在英特尔整合FPGA之后,带来了很多的更强的能力。在Stratix 10上面获得了英特尔领先业界3年的制程技术,意味着给更大的容量和更快的速度。英特尔的制程技术是全球最创新的、最领先的技术。英特尔也将它的制程技术用于Falcon Mesa的生产和制造。晶体管的数量每两年会增加一倍,那就意味着单位面积的成本会增加,但是,晶体管数量翻一倍意味着性能的改善,从而使每个晶体管的成本降下来了。
最后Rina Raman女士向我们表示:“我们面临的挑战是非常复杂的,面对这样的复杂性,可能需要不同的解决方案来应对挑战。英特尔认为FPGA实际上能够帮助我们加速计算,帮助我们更好地应对今天以及未来数据的需求。”
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。