至顶网服务器频道 09月25日 新闻消息(文/董培欣):
19号英特尔FPGA技术大会(IFTD)在北京召开,会后英特尔公司可编程解决方案事业部副总裁兼客户体验事业部总经理 Rina Raman女士接受了记者的采访。向大家介绍了FPGA怎么样帮助我们加速实现一个智慧的互联的世界:
根据预测,到2020年,将会有500亿个终端联网,现在我们联网的终端数量是80亿个,未来联网的这些终端数量比现在所需要的带宽每一个都要高。思科预测到2020年IP的流量会达到2300EB量级每年,数据中心会和这些终端连接起来,这些终端又会和数据中心实现连接,这样我们就称为一个良性的循环,这个循环开始随着物联网的发展会加速,意味着网络就必须要在更高的速度上处理更多的数据,数据中心也必须要做更复杂的计算,处理更大的数据集,即使嵌入式的终端和设备也要做很多本地的计算。
5G无线通讯、雷达和航天、网络的转型、云计算、智慧城市和无人驾驶车辆。无论是哪个市场,实际上它们都面临着同样的挑战,就是连接的数量在急剧增长,计算的复杂度也在不断地增长,这就会带来瓶颈和热点。这个时候,FPGA就可以帮助我们很好地应对这些挑战。利用FPGA,你的系统的设计不会被锁定,开发时间没有那么长,而且相比这些专用的硬件来说,它更具有灵活性。
现在我们可以看到FPGA也越来越发挥着重要的作用,特别是在需要灵活加速的时候,因为算法也在不断地发展,而且我们所处的环境当中加速的工作负载也在动态地变化,所以FPGA有以下的好处,相当于一个软件定义的硬件,可以满足性能和计算方面的要求。另外,还有一定的灵活性,能够支持未来的计算和商业需求不断地变化。
大家可以把FPGA想象成一种先进的多功能的加速器,一方面能够带来最大的编程的灵活性,支持高度差异化的产品,你还可以在现场进行重新配置,虚拟加速任何数字的算法。另外,他们也是支持并行运算的,所以,他们特别适合未来计算的世界,更重要的是他们的性能从吞吐量,从实施的速度和能耗的角度来说,比CPU或者是GPU要优上十倍。
另外可以看到它可以以更低的时延处理更大的数据,比传统的在硬件产品上跑的基于软件的产品更快。就是因为FPGA有以上这些好处,FPGA相当于具有硬件的性能,又具有软件的可编程的能力,所以说对异构计算的环境或者是架构来说变得尤为重要。
接下来,Rina Raman女士向我们介绍了英特尔的FPGA产品及技术发展进程:
如今,英特尔Stratix 10最新产品已经开向向用户提供样片,Arria 10的终端系列产品已经在全面生产,Cyclone 10和Max 10均已大量出货。
除了现在已经发货的产品,英特尔下一代FPGA的产品,英文名字叫做Falcon Mesa。这是英特尔基于下一代10纳米制程的新的Falcon Mesa的产品。它基于世界上最先进的FinFET制程技术,这是英特尔第二代使用HyperFlex架构产品,也是第二代基于EMIB的异构的SIP。EMIB实际上是英特尔接口的规范。
由此可以看到,在英特尔整合FPGA之后,带来了很多的更强的能力。在Stratix 10上面获得了英特尔领先业界3年的制程技术,意味着给更大的容量和更快的速度。英特尔的制程技术是全球最创新的、最领先的技术。英特尔也将它的制程技术用于Falcon Mesa的生产和制造。晶体管的数量每两年会增加一倍,那就意味着单位面积的成本会增加,但是,晶体管数量翻一倍意味着性能的改善,从而使每个晶体管的成本降下来了。
最后Rina Raman女士向我们表示:“我们面临的挑战是非常复杂的,面对这样的复杂性,可能需要不同的解决方案来应对挑战。英特尔认为FPGA实际上能够帮助我们加速计算,帮助我们更好地应对今天以及未来数据的需求。”
好文章,需要你的鼓励
Intermedia 推出业内首个将统一通信和客户体验功能完全嵌入微软 Teams 的服务。这项创新不仅提升了 Teams 用户的生产力,还改善了客户体验。新功能支持多渠道通信、企业级通话功能和 AI 分析,为企业提供了一个强大的通信和客户体验平台。
Komprise 推出了 AI 驱动的数据管道,可自动检测和保护个人隐私信息 (PII)。这项新功能旨在帮助企业防止 PII 和其他敏感数据泄露,应对非结构化数据增长和生成式 AI 带来的风险。通过系统化方法减少敏感数据风险,提升网络安全和 AI 数据治理能力。
Oumi PBC公司宣布推出全球首个"无条件开放的AI平台",旨在通过提供开放访问基础模型、数据集和开发工具,创建协作式AI研发生态系统。该平台支持从1000万到4050亿参数的模型训练,适用于文本和多模态模型,并集成了多种流行的推理引擎。Oumi致力于打破当前AI研究领域的创新壁垒,加速AI领域的进展和发现。
阿里云发布最新大语言模型 Qwen 2.5-Max,声称性能超越当前最强 AI 模型。该模型采用专家混合架构,经过 20 万亿 token 预训练和后续强化学习,在多项基准测试中超越 DeepSeek-V3 等模型。Qwen 2.5-Max 目前通过阿里云 API 提供服务,但尚未开源。