ZDNet至顶网服务器频道 07月10日 新闻消息:IBM公司表示其一年前向下一代芯片技术投入的百万美元资金已经获得收效。这家技术巨头指出,其成功将晶体管的物理尺寸压缩到了当前瓶颈水平以下。
就在本周四,蓝色巨人公布其已经成功利用7纳米制程技术生产出测试芯片方案,并宣称这是业界在制程工艺领域的首例突破性成果。
总体而言,芯片之上的晶体管尺寸越小,芯片的执行效率也就越高。
不过各种物理效应会给尺寸缩减带来种种阻碍:一方面,晶体管的动态功耗会随着体积削减而有所降低,但与此同时电流泄露状况则会变得愈发严重。因此只有在降低制程尺寸的同时匹配以正确的技术手段来解决电流泄露难题——例如在晶体管上粘贴栅极鳍片——我们才能在提高时钟速率的同时降低功耗水平,进而将芯片的总体运行成本控制在更低程度。
目前的最佳芯片产品普遍利用22纳米或者14纳米制程技术进行加工,而摩尔定律指出每过两年密集型集成电路当中的晶体管数量就将翻倍,因此预计在下一自然发展阶段当中、芯片的制程工艺将向10纳米以及7纳米级别迈进。
不过虽然业界目前的芯片技术确实已经达到了14纳米水平,但进一步向下推进至7纳米则完全是另一码事。在这种尺寸之下,我们将很难控制各晶体管之间的电流走向。而再将眼光放得更远,7纳米以下制程工艺将给芯片发展带来更为严峻的技术挑战。
正如IBM方面在一封采访邮件当中所指出的,“通过常规方法硬性压缩晶体管尺寸反而会导致芯片性能退化,同时牺牲预期效益——包括更高性能表现、更低使用成本以及更低功耗需求等。”
考虑到这一点,IBM公司在12个月之前宣布将在未来五年内投入30亿美元开发新的芯片制造技术,从而一举突破7纳米制程瓶颈。
通过与GlobalFoundries、三星以及纽约州立大学纳米科学与工程理工学院的通力配合,IBM公司如今表示其已经在一步步接近这一高难度突破目标。
具体而言,蓝色巨人及其合作伙伴已经设法利用硅锗通道材料——而非传统的纯硅材料——实现了7纳米制程芯片的实际生产。
他们随即设法开发出新的制程技术,保证自身能够将FinFET晶体管的鳍片更为紧密地堆叠在一起,进而保证堆叠间距在30纳米以下。相比之下,英特尔旗下的14纳米制程“Broadwell”则拥有42纳米的堆叠间距。
最后,他们尝试利用多层超紫外线(简称EUV)光刻来实现这一极端制程工艺的实际制造,IBM公司指出其实际效果较目前最先进的10纳米制程技术拥有近50%的提升——而10纳米制程目前甚至尚未正式投放市场。
“不出所料,这些成果可能会使下一代系统的功耗/性能实现至少50%的改进,从而更好地支持大数据、云以及移动时代下的负载需求,”IBM公司表示。
不过要说这项新技术带来的真正影响,肯定还要等IBM公司实际制造出7纳米芯片、而非仅仅只是拿出一些能够运作的晶体管时才能看到。但实际这一目标恐怕还需要一段时日,而且行业观察人士们认为最早也要到2020年我们才能迎来真正商业化的相关产品。
更重要的是,从7纳米到5纳米甚至更低尺寸级别在难度上要比突破7纳米更为可怕。首先,继续依靠硅锗通道材料可能不足以完成这项任务。IBM公司的芯片研究人员也许需要探索其它可行的材料选项,例如砷化镓或者碳纳米通道,甚至是硅光子、神经计算或者量子计算等新型技术。
IBM公司表示,其目前正对上述领域进行探索并将其作为总额30亿美元研发体系的组成部分。而且事实上,蓝色巨人已经将芯片代工业务出售给了GlobalFoundries,并将剩余全部芯片相关业务划归IBM研究部门之下。然而,现在还没有任何消息能够说明这笔庞大的投入能够带来切实回报。
再有,市场上的同类产品亦带来严峻的竞争压力,其中包括英特尔与台积电——后者曾宣称预计将准备在2016年年内开始生产10纳米芯片产品。
不过我们也不可能将IBM直接排除在市场之外。蓝色巨人虽然已经剥离了其PC与x86服务器业务,但其仍然在硬件领域拥有可观的技术储备,并足以支撑其在大数据分析、高性能计算、机器学习以及大型机事务处理等计算密集型应用领域有所建树。总而言之,蓝色巨人会进一步推动芯片技术发展,而旺盛的市场需求就是其背后强大的动力存在。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。