英特尔近日宣布,将与Brookfield Asset Management资产管理公司共同投资高达300亿美元建设新的处理器制造工厂。
Brookfield是一家总部位于多伦多的投资公司,管理着超过7250亿美元的资产。在此次与英特尔的合作中,Brookfield将提供49%的资金,用于建设英特尔位于美国亚利桑那州的两个新处理器制造厂,剩余资金由英特尔提供。
在两个新工厂或晶圆厂建设完成之后,英特尔将拥有这些设施的多数股权。据报道称,英特尔和Brookfield已经同意分享晶圆厂的收入。
英特尔于去年3月首次宣布建造新晶圆厂的计划,并在六个月之后破土动工,工厂位于美国亚利桑那州Calendar的一个占地700英亩的英特尔园区内,该园区已经拥有四个芯片制造厂,预计新工厂将于2024年全面投入运营。
这些晶圆厂将采用英特尔即将推出的Intel 20A半导体制造工艺(也就是英特尔的5纳米工艺)生产芯片,这个工艺也代表了英特尔在芯片生产方式上的一次重大更新。
英特尔当前一代处理器是基于FinFET行业标准晶体管设计的。当Intel 20A制造工艺上线的时候,英特尔将从FinFET切换到RibbonFET,后者是一种引入了多项重大升级的新晶体管设计。Intel 20A还将采用PowerVia,一种旨在简化电力分配到芯片不同部分的新技术。
英特尔希望通过RibbonFET晶体管设计和PowerVia技术的结合,能够显着提高处理器的速度。在Intel 20A之前的Intel 4,预计每瓦晶体管性能比当前一代高出20%,Intel 20A每瓦性能将再提高15%。
英特尔在去年3月宣布了建设两个新晶圆厂的计划,作为IDM 2.0战略的一个组成部分。IDM 2.0战略的主要目标之一,就是提高英特尔的芯片制造能力。自从首次详细介绍IDM 2.0战略以来,英特尔已经宣布计划在美国俄亥俄州、德国和意大利建造半导体工厂,耗资超过500亿美元。
英特尔预计将在年底前完成与Brookfield的300亿美元联合投资协议。据英特尔称,此次合作将让英特尔能够以低于股本成本的方式获得资金。此外英特尔表示,此次合作旨在“保护自己的现金和债务能力”以进行未来投资,同时使公司更容易为股息提供资金。
英特尔首席财务官David Zinsner表示:“这一具有里程碑意义的合作是英特尔Smart Capital战略向前迈出的重要一步,也是建立在美国近期通过的CHIPS法案之上。半导体制造是全球资本最密集的行业之一,英特尔大胆的IDM 2.0战略需要一种独特的融资方式。”
与Brookfield的投资协议是英特尔为优化其基础设施融资方式而采取的几个步骤之一。
今天英特尔详细介绍说,这是英特尔正在“积极构建”的外壳空间——这个术语是指没有制造设备的空芯片工厂。将这样的晶圆厂转变为功能正常的芯片工厂,要比从头开始建造速度更快一些。
英特尔去年成立了一个新的业务部门,主要是为那些使用英特尔制造设施的企业生产处理器。今天,英特尔表示,计划在英特尔工厂中生产处理器的几家公司“已经表示愿意支付预付款以确保产能。”早些时候英特尔透露,截至第二季度,有30家客户正在开发测试芯片。
“英特尔的Smart Capital措施为英特尔提供了更大的灵活性,降低了总资本需求,并为调整后的自由现金流和毛利率起到了推动作用,”Zinsner表示。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。