在推迟了多年之后,英特尔的10纳米处理器终于准备好批量出货了。
在年度股东大会上,半导体巨头英特尔表示,首款10纳米Ice Lake处理器将于6月份上市,但目前还不清楚第一款基于Ice Lake的笔记本电脑何时上市。
不过这是值得等待的,英特尔宣称,未来基于10纳米工艺的Corei7四核CPU是现有14纳米芯片图形性能的2倍,视频转码速度的2倍,人工智能计算能力的3倍。
英特尔表示,将在今年下半年和明年发布“多款”10纳米芯片,包括一款通用的GPU、多个像FPGA这样的专用芯片,以及专注于人工智能的Nervana处理器。作为英特尔未来计划的一个重要部分,数据中心服务器芯片将于2020年上半年首次亮相。
但还有一个更重大的消息,就是英特尔已经为首批7纳米处理器的上市设定了具体的时间表。英特尔表示,首款基于7纳米技术的产品将是一款基于Xe的通用CPU,预计在2021年发布。英特尔承诺称,届时性能提升将更加显著,每瓦性能提升大约20%。
此外这些7纳米芯片还将采用Extreme Ultraviolet Lithography(EUV)技术,该技术使用较短波长的光线在硅芯片之间传输信息,并且可能会进一步提升性能。这项新技术将让英特尔能够显著提高芯片的晶体管密度,同时优化功耗。英特尔表示,EUV技术也将成为未来更小制程工艺芯片迭代的基础技术。
Constellation Research分析师Holger Mueller认为,英特尔面对这向7纳米工艺迈进的压力,特别是考虑到英特尔遭遇10纳米工艺延迟的问题。不过他表示,当前英特尔应该首先把重点放在完成向10纳米的过渡。
“如果英特尔成功实现这一目标的话肯定是更好了,因为这会让处理器成本降下来,这对于人工智能和支持大多数下一代应用的机器学习技术所要求的CPU密集型负载来说至关重要,”Mueller说。
在这次投资者会议期间,英特尔首席执行官Bob Swan向股东们表示,英特尔的7纳米工艺是英特尔在芯片制程工艺方面重新赢得领导地位的关键。不过Swan也重申了他的信念,即“产品领导力”更为重要,因为英特尔的目标是为自己的处理器寻求更大的市场。
Swan表示,英特尔的目标是到2023年在他所谓计算机芯片这个规模3000亿美元的市场中占据28%的份额,也就相当于约850亿美元的销售额。他表示,这个市场覆盖了CPU、GPU、FPGA、甚至可能还有5G芯片以及用于人工智能和自动驾驶汽车的专用处理器。
他表示:“我们相信我们可以利用扩大的市场机会取得客户成功。我们的重点是提高执行力、加速创新、发展强大的文化、同时在追求盈利性增长方面进行有原则的投资。”
3000亿美元可以算是一个相当大的市场了,但是否能满足英特尔投资者还有待观察。Swa向股东们表示,他预计未来三年英特尔的收入和每股收益增幅在“个位数”,PC芯片销售可能在此期间保持不变,但数据中心芯片应该会出现两位数的增长。
他还表示,未来三年英特尔的营业利润率将保持稳定在32%,但随着10纳米芯片的产量毛利率会有所下降。
Moor Insights&Strategy分析师Patrick Moorhead认为:“3000亿美元的市场远远大于英特尔5年前所在的1000亿美元市场,因此我认为现在的情况是积极的,而不是消极的。”
但英特尔股东显然希望能看到更多令人印象深刻的数据,在Swan的这番演讲之后,英特尔股价在周三晚些时候下跌了2.5%。
Pund-IT分析师Charles King认为,股价下跌可能是投资者们对英特尔未来计划的范畴有些担忧,以及对于英特尔能否真正完成自己所设定的任务表示质疑。
他说:“考虑到过去几年英特尔遭遇的一系列问题,包括解雇Brian Krzanich、10纳米技术的持续延迟、以及与苹果公司终止5G合作,所以持谨慎态度可能是有必要的。但与此同时,英特尔几十年来一直稳步展现出独特的商业和技术领导力。之前英特尔曾经跌跌撞撞,但随着时间的推移,它会自行调整并重新获得平衡、取得突破,我希望这次也是如此。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。