ZD至顶网服务器频道 11月18日 编译:在过去的五十年里,摩尔定律一直表现得良好。这条定律是由英特尔的创始人戈登.摩尔在1965年提出的,摩尔定律指出处理器的处理能力总体上每年翻一番。在1975年,这个时间周期被修正为两年。
但是在今年的七月份,英特尔的首席执行官Brian Krzanich在财报电话会议中透露,由于引入了14纳米技术,“我们现在的节奏更接近于两年半,而不是两年。”他表示该公司正在想法设法回到摩尔定律两年处理能力翻一番的轨道上来。
是否太乐观?
IBM的研究员兼OpenPOWER 总裁Brad McCredie表示,根据IBM内部的研究,摩尔定律节奏放缓的程度甚至更大,也就是说我们每三年大约能够看到处理能力出现1.2-1.4左右的增长。“在过去三十年中技术前进的脚步现在已经放缓下来了”,他是在德克萨斯州举办的SC’15大会中的一次新闻发布会上做出这样的表示的。
这是一个问题,特别是在组织从“程序驱动时代的计算向认知时代计算转变之际”。
但是IBM认为它有办法帮助客户摆脱摩尔定律:硬件加速。McCredie表示,“加速计算才是未来。”他表示,“但是要想让它走出高性能计算的领域并进入通用计算的世界,我们还有几件事情要做。”
针对数据中心的FPGA加速器
所以,今天,该公司宣布将同FPGA芯片设计商Xilinx进行“为期数年的战略协作”。两家公司将联起手来,通过OpenPOWER Foundation致力于找到更好的方法处理机器学习、网络功能虚拟化(NFV)、基因、高性能计算和大数据分析等应用程序。
IBM的开发人员将针对OpenStack、Docker和Spark建立解决方案堆栈,结合了基于POWER的服务器,并具备Xilinx FPGA加速器。
McCredie还宣布该公司将把POWER 8芯片同Nvidia Tesla K80 GPUs结合在一起,使用NVIDIA的高速NVLINK互联。两家OEM——Penguin Computing和E4 Engineering将会把基于OpenPOWER设计理念的系统推向市场。
在迎接2016年的过程中,Mellanox更快的、所谓的智能网络交换机被低调地命名为Switch-IB 2。它通过处理器的Coherent Accelerator Processor Interface(CAPI)连接POWER 8系统。
IBM已经对于POWER 8/ Tesla GPU/ Mellanox已经有了参考客户:位于德克萨斯州休斯顿的贝勒大学。上个月,一组研究人员因为一些“突破性的基因研究”赢得了很多喝彩。他们使用POWER8系统完成了对硬件来说非常繁重的工作。
IBM已经将OPENPower Foundation建成了一个具有160多家成员的庞大联盟。它很容易被描述为“非英特尔”联盟。但是IBM+NVIDIA+Mellanox是一个非常强大的组合。谷歌当然是OpenPOWER的大拥趸。这对于企业来说不可能是坏事。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。