ZDNet至顶网服务器频道 10月11日 新闻消息:AMD近日发布其近期和中期的计算解决方案路线图。这些解决方案同时挖掘x86和ARM生态系统的最佳特性,称为“双架构计算”。该路线图的里程碑意义在于发布了AMD的64位ARM架构授权,用于面向高增长市场之高性能核心的定制化开发。今日发布的内容还展望了AMD为实现真正独一无二的双架构计算和图形处理性能而制定的开发计划,通过共享的、具有灵活性的架构,使客户得以在嵌入式产品、服务器和客户端市场以及针对半定制化的解决方案开启全新的创新之路。
AMD公司总裁兼首席执行官罗瑞德先生称:“今天之前,AMD是世界上唯一一家能够提供高性能、低功耗x86运算核心,并搭载业界领先的图形显卡产品的公司。而今AMD大胆朝前迈进了一步,成为能够同时提供64位ARM和x86高性能CPU核心,并搭载全球领先的图形显卡产品的唯一一家公司。我们在双架构计算方面的创新设计能力,结合我们在高性能系统芯片方面掌握的专利库和专有知识,意味着AMD能够为客户带来独特的双架构解决方案,帮助客户以更高效和强大的方式去改变计算世界。”
预计到2017年,基于ARM和x86的处理器市场规模将超过850亿美元[ 基于AMD公司的内部测算。]。AMD是唯一一家能够提供差异化的解决方案,并有能力渗透到广阔市场的公司。同时,做为一家重要的处理器供应商,开创一条知识产权通道,允许他人利用ARM和x86生态系统进行创新,这在业界尚属首次。
AMD的双架构计算路线图包括:
“空中之桥(SkyBridge)项目”—— 该设计框架将于2015年推出,包含20纳米制程的新的APU和系统芯片的产品系列。这预计将成为世界上首批插脚兼容的ARM和x86处理器。其中,“空中之桥项目”中的64位ARM处理器将基于ARM Cortex-A57核心,并且将是AMD首个针对安卓系统推出的“异构系统架构”(HSA)平台,而x86款处理器将带有下一代的“Puma+”CPU核心。“空中之桥项目”系列产品的特点是完整的系统芯片集成、AMD的“次世代图形架构”(GCN)技术、HSA和通过专用的“平台安全处理器”(PSP)实现的AMD安全技术。
“K12”—— 新的基于ARM的高性能、低功耗的核心。它深度利用了AMD的ARM架构授权、多方面的64位设计专长以及由半导体架构师Jim Keller带领的核心开发团队。基于“K12”核心的首批产品计划将于2016年推出。
ARM公司首席执行官Simon Segars称:“ARM致力于合作的对象来自世界各地。从传感器到服务器,它们为用户体验带来变革和转变。AMD具备的市场覆盖以及在客户端与服务器市场引领业界向64位运算转变的成功经验,配合ARM的低功耗专长和服务器基础架构(SBSA)规范,将会在多个高增长市场带来新的能力,推动新的创新。”
AMD今日还首次向公众演示了基于ARM,代号为“西雅图”的64位AMD皓龙 A系列处理器,运行环境为从开源协作项目Fedora派生而来的 Linux系统。Fedora项目为红帽(Red Hat)公司资助的,由社区主导的Linux系统发布。它为全世界的开发人员和IT管理人员提供了熟悉的企业级的操作系统。基于Fedora项目的Linux运行环境,可以让公司用户在向基于ARM的服务器迁移的同时,无需在其IT环境中集成全新的工具和软件平台。上述演示意味着64位ARM超高效处理器扩大在数据中心的应用方面迈出了重大的一步。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。