ZDNet至顶网服务器频道 05月13日 新闻消息:关注DIY的朋友可能最近都听说了,再过几天业界瞩目的APU14大会就将要在北京召开了,这也是AMD首次在中国召开如此重要的技术峰会。对于关注AMD的朋友来说这些年APU的进步和发展是有目共睹的,而APU带给我们的融合、加速理念也已经是深入人心,一提到APU相比不少玩家都不会陌生,那么对于APU14北京技术创新大会您是否又有着深入的了解呢?下面就请您跟随笔者一起来花几分钟了解一下吧。
APU14技术创新大会的前身最早可以追溯到2011年,当时首届的名字称为AMD融合开发者峰会(AFDS,AMD Fusion Developer Summit),在美国华盛顿州Meydenbauer中心召开,异构计算理念成为了当年会议的主角,AMD数位技术高层就APU编程、下一代GPU应用等主题发表演讲,峰会期间还举行了技术讨论、学习班、现场演示等内容,并且当时还有来自微软的编程专家就“异构平行计算在微软的应用”发表了精彩的演讲,而ARM公司负责技术与媒体处理的副总裁Jem Davies也就ARM的异构计算历史、未来策略以及对OpenCL等行业标准的支持发表演讲,这从现在看来也是为目前AMD和ARM良好的合作打下了基础。当然,首届AMD融合开发者峰会的高潮自然是AMD发布了第一代APU:Llano,这预示着开启了APU时代。
时间到了2012年,AMD如期在当年6月召开了第二届融合开发者峰会,这一年的峰会AMD联合4家公司成立了HSA基金会,共推HSA异构运算体系,其中AMD副总、全球商业部门总经理Lisa Sue发表了主题演讲,她认为传统的以客户端为中心的模式处于变革中,基于云计算的移动设备正在改变摩尔定律以及CPU处理器发展模式,同时她强调了异构计算是新的革命,是未来的焦点。
作为会议的重头戏,AMD企业理事Phil Rogers登台介绍了AMD HSA架构,在2011年的AFDS大会上它还被成为FSA(Fusion System Architecture),而到了2012年初则改称为HSA(Heterogeneous System Architecture)异构计算,我们从单词的变化也看出AMD转变的方向。同时峰会还明确了HSA的应用并不只是需要AMD提供驱动这么简单,还需要其他厂商的配合,为此AMD推动成立了非营利性的HSA基金会推动该技术发展。HSA成员除了AMD之外,还有ARM、德仪TI、联发科Mediatek以及Imagination技术公司。这里我们又看到了ARM的身影。
2013年,AMD开发者峰会在美国加州圣何塞继续召开,同时AMD将峰会名称变为了更好记忆的APU13,APU13开幕式率先登场的是AMD全球事业部高级副总裁兼总经理Lisa Su女士,她首先确定了AMD未来的方向,同时肯定了APU在过去两年发展取得的成功,确定AMD未来会将APU产品、融合概念进行到底的策略。会议上Lisa Su女士表示道:“融合概念AMD已经走在的前沿,而全新的融合产品不仅带来了新性能、新功能,还迎来的全新革命性架构——HSA异构系统”。
同时,首款基于HSA架构的产品——Kaveri APU,这个我们现在来看已经十分熟悉了,这款产品为处理器计算带来了个革命性发展,其综合效能比上一代产品提升数倍。同时除了HSA架构外,GPU单元部分占到了整体晶体管数量惊人的47%,为Kaveri APU的异构计算性能奠定见识基础。APU13上,独立GPU部分也亮相了Radeon R9 290X,这款AMD顶级旗舰产品,不仅带来大幅度的性能提升,还为我们引入了Mantle、TrueAudio、DirectX 11.2等我们现在耳熟能详的新技术。
此外,APU13还采用特色分组会议的形式,聚焦计算行业发展趋势。在这里AMD还向大家展示了GPU和APU领域的最新技术,包括它们在主流游戏机平台上的应用,全面覆盖手机、平板电脑、PC、网游/云游戏和家用游戏主机等领域。这也为AMD在后来在PS4/XBOX ONE、ARM、嵌入式以及新型服务器方面打下了良好的基础。
再过几天,也就是5月15日,AMD APU14北京技术创新大会就将如期召开,预计在本届APU14大会上,我们将会看到第一手来自AMD的全新技术展示,预计将包括APU应用、异构计算、新一代超轻薄移动平台以及次时代主机等方面的内容,可谓是盛况空前。同时受到AMD桌面业务总部搬到中国等利好消息的作用,在APU14上AMD还将会有多名重量级高层人物出席专访,为大家带来最新鲜的一手信息,让您迅速了解AMD的新产品新技术以及未来的前沿发展方向。同时,AMD新浪官方微博 @AMD中国 也会在第一时间给大家带来现场报道,A粉们快来关注吧!而且还将有机会赢取AMD送出的超级大奖PS4游戏机哦!
好文章,需要你的鼓励
这项来自苹果公司的研究揭示了视频大语言模型评测的两大关键问题:许多测试问题不看视频就能回答正确,且打乱视频帧顺序后模型表现几乎不变。研究提出VBenchComp框架,将视频问题分为四类:语言模型可回答型、语义型、时序型和其他类型,发现在主流评测中高达70%的问题实际上未测试真正的视频理解能力。通过重新评估现有模型,研究团队证明单一总分可能掩盖关键能力差距,并提出了更高效的评测方法,为未来视频AI评测提供了新方向。
这篇来自KAIST AI研究团队的论文提出了"差分信息分布"(DID)这一创新概念,为理解直接偏好优化(DPO)提供全新视角。研究证明,当偏好数据编码了从参考策略到目标策略所需的差分信息时,DPO中的对数比率奖励形式是唯一最优的。通过分析DID熵,研究解释了对数似然位移现象,并发现高熵DID有利于通用指令跟随,而低熵DID适合知识密集型问答。这一框架统一了对DPO目标、偏好数据结构和策略行为的理解,为语言模型对齐提供理论支持。
VidText是一个全新的视频文本理解基准,解决了现有评估体系的关键缺口。它涵盖多种现实场景和多语言内容,提出三层评估框架(视频级、片段级、实例级),并配对感知与推理任务。对18个先进多模态模型的测试显示,即使最佳表现的Gemini 1.5 Pro也仅达46.8%平均分,远低于人类水平。研究揭示输入分辨率、OCR能力等内在因素和辅助信息、思维链推理等外部因素对性能有显著影响,为未来视频文本理解研究提供了方向。
ZeroGUI是一项突破性研究,实现了零人工成本下的GUI代理自动化在线学习。由上海人工智能实验室和清华大学等机构联合开发,这一框架利用视觉-语言模型自动生成训练任务并提供奖励反馈,使AI助手能够自主学习操作各种图形界面。通过两阶段强化学习策略,ZeroGUI显著提升了代理性能,在OSWorld环境中使UI-TARS和Aguvis模型分别获得14%和63%的相对改进。该研究彻底消除了传统方法对昂贵人工标注的依赖,为GUI代理技术的大规模应用铺平了道路。