ZD至顶网服务器频道 01月21日 新闻消息(文/于泽):1月14日,AMD正式推出此前代号为“Seattle”的AMD 皓龙A1100片上系统(SoC)。AMD企业解决方案部产品管理和营销总监Colin Cureton在媒体沟通会上表示:“在数据中心领域,ARM生态系统正面临转折。对寻求数据中心ARM解决方案的客户,AMD高性能处理器的推出,使整个生态系统向前迈出了强有力的一步。”
据悉,此次推出的AMD皓龙A1100片上系统基于64-bit ARM Cortex-A57架构,SoC单芯片设计,拥有四个或八个核心,单核主频可高达2GHz,制造工艺则是GlobalFoundries 28nm。
A1100架构信息
缓存方面,每一对核心共享1MB二级缓存,总计4MB。全部核心共享一体化三级缓存,容量最多8MB。内存控制器同时支持DDR3、DDR4,内存位宽128bit,双通道,支持SODIMM、UDIMM、RDIMM等多种内存类型,最高频率1866MHz,最多可安装四条,最大内存容量128GB。
另外,A1100还集成了PCIe 3.0总线控制器,八条信道,可拆分为单路x8、双路x4,以及SATA 6Gbps控制器和2个10GbE万兆以太网端口。
据介绍,此次推出的产品共三个型号,包括A1120、A1150和A1170(见下图),它们分别面向不同的领域,A1170主要针对的是对计算需求比较高的应用,A1150针对的是存储和网络市场,致力为客户提供高性价比的解决方案,A1120主要面向软件开发和一些对性能要求比较低的应用。
在生态建设方面,目前已经有一些合作伙伴基于A1100打造出了相应的产品,比如SoftIron研发的Overdrive3000企业级ARM64位开发者系统、beaconworks开发的软件定义的各类存储产品。除此之外还有很多,包括CASWELL、silverlining、96Boards等也都在基于A1100打造相应的产品。而Colin也表示,他们正在联合更多的合作伙伴,为客户提供更多的硬件解决方案。
同时,在软件方面,像RedHat、SUSE、ENEA及Linaro等也都在为ARM架构处理器配套的操作系统和应用进行优化。
在笔者看来,A1100的推出更大的作用在于代表ARM阵营的一方终于有了实质性的进军数据中心领域的产品,A1100的发布是一个里程碑。就像ARM服务器和生态系统总监Lakshmi Mandyam说的, A1100处理器为网络基础设施和数据中心的可扩展性提供了新的选择。
虽然ARM一方在数据中心领域的前景还未可知,但是这一步已经迈出去了。能够预见的是,通过不懈努力,最终他们一定能有所斩获,但这个过程肯定是艰辛的。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。