今年315,人脸识别系统问题曝光,在我们震惊上亿人脸信息被窃取遭泄露的同时,也看到在合法、合规的前提下,企业业务数字化、智能化发展巨大应用前景。如何做到合法合规?首先,信息采集需征得所有者同意,其次采集信息需在边缘及时处理甚至加密,从而避免被第三方非法获取。这就对物联网设备的数据采集提出了更高的要求。
因此,自适应计算企业赛灵思( NASDAQ: XLNX )宣布面向市场扩展其 UltraScale+ 产品组合,以支持需要超紧凑及智能边缘解决方案的新型应用。新款 Artix 和 Zynq UltraScale+ 器件的外形尺寸较传统芯片封装缩小了70%,能够满足工业、视觉、医疗、广播、消费、汽车和互联市场等更广泛的应用领域。
作为全球唯一基于16纳米技术的成本优化型产品组合,UltraScale+ 器件采用台积电最先进的InFO(Integrated Fan Out,集成扇出)封装技术。借助InFO技术,UltraScale+ 器件能以紧凑的封装提供高计算密度、出色的性能功耗比以及可扩展性,从而应对智能边缘应用的需求。
赛灵思产品线管理与营销高级总监 Sumit Shah 表示:“对紧凑型智能边缘应用的需求正推升对处理和带宽引擎的需求。这些引擎不仅要提供更高的性能,还要提供更高级别的计算密度,以支持最小尺寸的系统。UltraScale+ 系列的新款成本优化型产品分别是专为高 I/O 带宽和 DSP 计算而打造的Artix UltraScale+ FPGA;专为功耗和成本而优化的Zynq UltraScale+ MPSoC;可扩展且安全的 Artix和 Zynq UltraScale+。
Artix UltraScale+ FPGA:专为高 I/O 带宽和 DSP 计算而打造
Artix UltraScale+系列基于业经生产验证的FPGA架构,是一系列应用的理想选择。例如,搭载高级传感器技术的机器视觉、高速互联以及超紧凑“8K 就绪”视频广播。Artix UltraScale+ 器件提供了每秒 16Gb 的收发器,可以支持互联、视觉和视频领域的新兴高端协议,与此同时还能实现同类最佳的 DSP 计算功能。
Zynq UltraScale+ MPSoC:专为功耗和成本而优化
成本优化Zynq UltraScale+ MPSoC 针对边缘连接及工业和医疗物联网系统所设计,包括嵌入式视觉摄像头、AV-over-IP 4K和8K 就绪流媒体、手持测试设备,以及消费和医疗应用等。并采用基于异构 Arm 处理器的多核处理器子系统,同时还能迁移至普通封装尺寸以支持更高算力。
可扩展且安全的 Artix和 Zynq UltraScale+
安全性是赛灵思设计中的关键组成部分。此次推出的成本优化型 Artix 和 Zynq UltraScale+ 系列的新款器件都具备同样健全的安全功能,包括 RSA-4096 认证、AES-CGM 解密、数据保护法( DPA ),以及赛灵思专有的 Security Monitor (SecMon,安全监测)IP,能够灵活应对产品生命周期中的安全威胁,满足商业项目的各种安全需求。
正是由于赛思灵 UltraScale+ 系列新款器件向用户提供出高性能、高带宽、低功能、高安全等诸多特性,极大促进了企业数字化转型的顺利进行,就好像 LUCID Vision Labs 创始人兼总裁 Rod Barman 所说的:“LUCID 与赛灵思紧密协作,将新款 UltraScale+ ZU3 集成到我们的下一代工业机器视觉摄像头 Triton™ Edge 中。借助 UltraScale+ ZU3 及其 InFO 封装,LUCID 能利用创新的软硬结合板(rigid-flex board)架构,将惊人的处理能力压缩于工厂级坚固的超紧凑 IP67 摄像头中。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。