AMD近日推出了一款新的数据中心加速卡Alveo MA35D,帮助流媒体提供商等企业更高效地处理视频。
MA35D是AMD早期产品Alveo U30的后续产品。MA35D可以同时处理32个1080p视频流,是之前的4倍,同时功耗更低。据报道,AMD内部测试表明,MA35D“通常功耗”要比Alveo U30低66%。
流媒体提供商不会以原始形式向用户分发视频内容,而是打包成压缩文件格式。以压缩格式存储视频占用的存储空间更少,因此,可以以带宽效率更高的方式通过网络发送,从而降低成本。
更改视频流文件格式的任务称为编码。AMD新推出的MA35D加速卡专为执行编码而设计,此外还可以执行将视频流转换回原始文件格式的解码任务。
加速卡是一种计算模块,将一个或者多个芯片封装到比标准服务器还小的机箱中。AMD表示,8个MA35D加速卡可以集成到一台标准的单机架服务器中。一台配备8个MA35D加速卡的设备可以管理多达256个并行视频流。
Alveo MA35D的大部分处理能力是由两个板载芯片提供,也就是AMD所谓的VPU。这是使用5纳米工艺制造的专用集成电路(ASIC)。ASIC是一种定制芯片,可以运行特定类型的工作负载。
针对特定工作负载优化处理器可以使其速度更快。如果应用频繁执行乘法,工程师可以构建具有大量乘法优化电路的芯片,这样的芯片比没有那么多专用电路的、更通用的处理器性能更高。
为AMD的新加速器提供动力的VPU等ASIC,是从零开始构建的,用于运行一种类型的工作负载。ASIC要比FPGA更符合应用的要求,后者是另一种常用于此类任务的芯片。AMD的MA35D加速卡采用完全基于ASIC的设计,而上一代Alveo U30采用的是速度较慢的FPGA。
AMD AECG数据中心事业部总经理Dan Gibbons表示:“我们和我们的客户以及合作伙伴密切合作,不仅要了解他们的技术要求,还要了解他们在部署大容量交互式流媒体服务以实现盈利方面所面临的基础设施挑战。我们开发了具有ASIC架构的Alveo MA35D,可满足这些供应商的定制需求,降低资本和运营支出。”
除了两个ASIC驱动的VPU之外,MA35D还具有其他计算模块,其中一个是AI引擎,每秒可以执行高达22万亿次的运算。据AMD称,该引擎运行AI模型,可以自动提高视频流的质量并压缩视频流以节省带宽。
AMD目前正在向早期客户提供MA35D样品,计划在第三季度开始大批量出货。
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。