ZDNet至顶网服务器频道 06月17日 新闻消息:AMD推出了代号为Kaveri的新一代APU,真正将CPU和GPU融合在一起,真正实现了HSA(Heterogeneous System Architecture,即异构系统架构),这也是AMD在当年推出Athlon、Opteron、真双核产品之后又一款在架构层面上有颠覆性创新意义的产品,将为AMD未来的产品技术发展奠定坚实的基础,是AMD在技术领域以及产品领域的一个重要里程碑。
GPU在数据并行计算和图形处理上有着天然的优势,CPU适合处理例如操作系统、轻负载应用等传统工作。因此,从处理器设计的角度,我们需要让合适的计算单元做合适的工作。根据应用的计算性能要求,平衡使用CPU和GPU资源,甚至将以前(异构计算出现之前)需要CPU做、但又勉为其难的工作交给更适合的计算设备GPU,就能很好地降低设备功耗。
HSA架构下,CPU和GPU在内存管理上是统一的,内存数据对于CPU和GPU完全可见,数据无需在CPU和GPU之间搬迁,大大节省系统资源。对于程序员,这种设计可显著降低异构应用的编程难度。以OpenCL编程为例,程序员可以在不同设备间传递指针而不是数据,这就可以将更多传统上由CPU处理的数据结构放到GPU上处理。CPU和GPU统一的内存模型,也使得OpenMP/Java这类共享内存模型的编程语言成为HSA的编程语言,从根本上解决异构应用编写困难的局面。
事实上,目前包括英特尔、英伟达等多家厂商都在提供异构计算的产品,并应用了不同的技术方案。为更好地推广HSA,AMD正在推动将HSA架构变成开放标准,与其他处理器公司共同推动异构计算的生态环境。HSA最终会落到硬件层面上,这意味着厂商都可以拿这个规范去设计他们的硬件。AMD的思路是自己的IP优势。我们的差异化体现在我们制造芯片的知识产权上面,比如AMD异构芯片的电源管理,芯片模块化设计从而提供更多HSA兼容的芯片模块,异构芯片间Cache处理能力、GPU架构等等。
在高性能计算领域,HSA则有更广泛的空间。服务器里有很多计算密集型的任务,例如高性能计算当中就有很多数据处理会变成矩阵乘法操作,这种任务对计算性能要求很高,在经过一定计算之后会返回结果,并需要一个决策过程,如此反复再进行下一个处理。CPU非常适合做决策,但GPU则非常适合大型矩阵操作。HSA将CPU和GPU进行了高效连接,这种在架构上的调整让调度无需考虑数据所在(是在CPU还是GPU上),也无需考虑处理过程(在决策还是在计算),使HSA不但适用于终端设备,也是服务器和高性能计算非常好的技术实现方式。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。