ZDNet至顶网服务器频道 01月29日 新闻消息(文/张锐):定律作为解锁宇宙奥秘的钥匙,被众多的实践和实事所证明,可反映出事物在一定条件下发展变化的客观规律。定律作为一种理论的模型,用以描述在特定情况和特定尺度下的现实世界,但也会随着时间的推移或者条件的改变,而有可能失效或者变得不准确。
作为计算机第一定律的摩尔定律(Moore’s Law),于1965年,由英特尔联合创始人之一的戈登·摩尔(Gordon Moore)提出,当时他正在准备一个关于计算机存储器发展趋势的报告,在整理观察资料时,发现了一个惊人的趋势——每个新芯片大体上包含了其前任两倍的容量,每个芯片的产生都是在前一个芯片产生后的18-24个月内出现。如果这个趋势一直继续下去的话,计算能力相对于时间周期将呈指数式的上升。
摩尔当时所研究的资料,就是现在所谓的摩尔定律,到底什么才是真正的“摩尔定律”呢?归纳起来主要分成三个版本:
一、集成电脑芯片上所集成的电路的数目,每隔18个月将会翻一番。
二、微处理器的性能每隔18个月将会提高一倍,而价格将会下降一倍。
三、利用一美金所能买到的电脑性能,每隔18个月将会翻两番。
以上的这三种说法中,第一种说法最为普遍,第二、三个说法涉及到价格因素,从实质上看是一样的,三种说法拥有一个共同点,即“翻番”的周期都为18个月。
摩尔定律在之前的50年,一直被遵守着,也一直被质疑着,有人说摩尔定律会一直存在,未来不会有更准确的定律来替代它,也有人说摩尔定律已死,摩尔定律将会失效,英特尔科技和制造集团副总裁迈克·梅佰里(Mike Mayberry)曾不止一次听到相同的世界末日预言,甚至听到过同事也这样说。但是,由于大量像梅佰里这样的材料科学家不断找到使硅晶体管小型化的新途径和其他替代材料——例如石墨烯,所以摩尔定律仍然在起作用。
摩尔定律虽然未死,但显然已经来到了晚年,在尚未出现可取代的定律之前,摩尔定律将依旧会被大家一直所提起。从“语气”中不难看出,摩尔定律的寿命远远超过了人们的预期,研究人员的努力使得计算机尺寸越来越小,功能越来越强大。英特尔科技和制造集团副总裁迈克·梅佰里(Mike Mayberry)说,“如果只使用一成不变的技术,一般来说肯定会遭遇极限。事实上,在过去的50年中,我们每5或7年就会对技术进行大幅改动,因此芯片的处理能力是没有上限的。”
通过60年的演变,摩尔定律逐步演化变为了摩尔第二定律和新摩尔定律:
摩尔第二定律:摩尔定律提出30年来,集成电路芯片的性能的确得到了大幅度的提高;但另一方面,英特尔高层人士开始注意到芯片生产厂的成本也在相应提高。1995年,英特尔董事会主席罗伯特·诺伊斯预见到摩尔定律将受到经济因素的制约。同年,摩尔在《经济学家》杂志上撰文写道:“现在令我感到最为担心的是成本的增加,这是另一条指数曲线。”,他的这一说法被人称为摩尔第二定律。
新摩尔定律:中国IT专业媒体上出现了“新摩尔定律”的提法,指的是中国Internet联网主机数和上网用户人数的递增速度,大约每半年就翻一番。而且专家们预言,这一趋势在未来若干年内仍将保持下去。
那么摩尔定律会失效吗?摩尔在2007年接受采访时作出了肯定回答,“任何高速增长的物理量都会有上限,过去,芯片产业已经克服了许多困难,但我认为,在未来10年或15年,芯片开发将遭遇上限。”虽然话是这么说,但是如果芯片制造厂商在接下来的发展中可以克服这些困难,那么摩尔定律将会是一个永恒的定律,亦或者其延伸出的定律将会继续走下去。
摩尔定律已“运行”了50年,这一定律是否将会被打破,目前谁也不敢做出准确的判断,或许有一天它将不再能定律芯片处理器的发展规律,或许有一天将不会有人在公开场合中再提到摩尔定律,但是摩尔定律将会成为一个时代的代名词,被行业所铭记。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。