ZD至顶网服务器频道 11月18日 编译:在过去的五十年里,摩尔定律一直表现得良好。这条定律是由英特尔的创始人戈登.摩尔在1965年提出的,摩尔定律指出处理器的处理能力总体上每年翻一番。在1975年,这个时间周期被修正为两年。
但是在今年的七月份,英特尔的首席执行官Brian Krzanich在财报电话会议中透露,由于引入了14纳米技术,“我们现在的节奏更接近于两年半,而不是两年。”他表示该公司正在想法设法回到摩尔定律两年处理能力翻一番的轨道上来。
是否太乐观?
IBM的研究员兼OpenPOWER 总裁Brad McCredie表示,根据IBM内部的研究,摩尔定律节奏放缓的程度甚至更大,也就是说我们每三年大约能够看到处理能力出现1.2-1.4左右的增长。“在过去三十年中技术前进的脚步现在已经放缓下来了”,他是在德克萨斯州举办的SC’15大会中的一次新闻发布会上做出这样的表示的。
这是一个问题,特别是在组织从“程序驱动时代的计算向认知时代计算转变之际”。
但是IBM认为它有办法帮助客户摆脱摩尔定律:硬件加速。McCredie表示,“加速计算才是未来。”他表示,“但是要想让它走出高性能计算的领域并进入通用计算的世界,我们还有几件事情要做。”
针对数据中心的FPGA加速器
所以,今天,该公司宣布将同FPGA芯片设计商Xilinx进行“为期数年的战略协作”。两家公司将联起手来,通过OpenPOWER Foundation致力于找到更好的方法处理机器学习、网络功能虚拟化(NFV)、基因、高性能计算和大数据分析等应用程序。
IBM的开发人员将针对OpenStack、Docker和Spark建立解决方案堆栈,结合了基于POWER的服务器,并具备Xilinx FPGA加速器。
McCredie还宣布该公司将把POWER 8芯片同Nvidia Tesla K80 GPUs结合在一起,使用NVIDIA的高速NVLINK互联。两家OEM——Penguin Computing和E4 Engineering将会把基于OpenPOWER设计理念的系统推向市场。
在迎接2016年的过程中,Mellanox更快的、所谓的智能网络交换机被低调地命名为Switch-IB 2。它通过处理器的Coherent Accelerator Processor Interface(CAPI)连接POWER 8系统。
IBM已经对于POWER 8/ Tesla GPU/ Mellanox已经有了参考客户:位于德克萨斯州休斯顿的贝勒大学。上个月,一组研究人员因为一些“突破性的基因研究”赢得了很多喝彩。他们使用POWER8系统完成了对硬件来说非常繁重的工作。
IBM已经将OPENPower Foundation建成了一个具有160多家成员的庞大联盟。它很容易被描述为“非英特尔”联盟。但是IBM+NVIDIA+Mellanox是一个非常强大的组合。谷歌当然是OpenPOWER的大拥趸。这对于企业来说不可能是坏事。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。