至顶网计算频道 08月07日 新闻消息(文/董培欣):随着云计算、大数据、人工智能技术的不断发展,具备通用型计算能力的CPU已经越来越难以满足大数据分析和人工智能对计算能力的特列计算性能要求。于是GPU与FPGA等异构计算产品开始在数据中心中出现并逐步占有一席之地。
当前,为了满足云计算数据中心内日益提升的计算、网络和存储性能要求,自适应和智能计算的全球企业赛灵思公司(Xilinx)宣布推出Alveo U50,进一步扩展 其Alveo数据中心加速器卡产品组合。Alveo U50卡是业界首款可以支持第四代PCIe(PCIe Gen 4)的轻量级自适应计算加速卡, 专门为扩容各种不同关键计算、网络和存储工作负载而特别设计,而且所有的加速都在同一个可重配置FPGA平台之上实现。
Alveo U50卡采用赛灵思UltraScale+架构,率先使用半高半长的外形尺寸和低75瓦的低包络功耗。该卡支持高带宽存储器(HBM2),每秒100G网络连接,并支持第四代PCIe和CCIX互联标准。通过支持标准的PCIe服务器插槽和仅相当于现有Alveo卡1/3的功耗, Alveo U50大幅扩展了自适应加速技术可以部署的范围,从而为要求严苛的计算、网络与存储工作负载带来了前所未有的高吞吐量与低延时。8GB HBM2提供了超过400Gbps的数据传输速度, QSFP端口提供了高达100Gbps的网络连接。此外,高速网络I/O还支持各种前沿应用, 如NVMe-oF解决方案(NVM Express over Fabrics),解耦计算存储和专业金融服务应用。
Alveo U50为客户提供了小尺寸、低功耗的可编程加速器平台,专门面向任意服务器部署,本地、云端和边缘的横向扩展架构和特定领域加速而打造。为了应对云微服务等新兴动态工作负载的挑战,Alveo U50在吞吐量,延迟和功效方面实现了10-20倍的改善。 对于加速网络和存储工作负载,U50卡可帮助开发人员通过将计算更接近数据来识别并打破时延和数据移动的瓶颈。
从机器学习推断、视频转码和数据分析到计算存储,再到电子交易和金融风险建模,Alveo U50可以将Alveo平台的灵活性、高吞吐量和低时延等性能优势,扩展到任意服务器的部署中。与固定架构的其他解决方案不同,Alveo U50的软件和硬件可编程性使客户能够在工作负载和算法不断发展的同时,满足不断变化的需求并随时优化应用性能。
赛灵思执行副总裁兼数据中心部总经理Salil Raje先生表示:“对数据中心永无止境的需求,正在将现有数据中心基础设施的性能推向极限,行业需要灵活应变的解决方案来优化广泛应用领域工作负载的性能,以延长现有基础设施的生命周期,并最终降低总拥有成本(TCO)。新款Alveo U50面向数据中心工作负载带来了优化的外形尺寸,以及前所未有的高性能与灵活应变能力,我们将持续与不断扩大的应用合作伙伴生态系统合作,共同构建解决方案堆栈,为众多行业提供此前不可想象的新功能。”
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。