英特尔即将启动一项10亿美元的基金,用于投资那些能够帮助英特尔芯片代工业务客户更快地将新处理器推向市场的技术和公司。
今天公布的这项基金,也是英特尔风险投资部门与最近成立的英特尔代工服务(IFS)业务合作的成果。IFS业务将利用英特尔半导体工厂,根据定制设计为其他公司(例如云提供商)生产处理器。
英特尔此次启动的10亿美元基金,只是支持IFS发展的大战略中一个组成部分。今天在宣布的同时,英特尔还详细介绍了一些信的芯片行业合作伙伴关系,包括IFS正在与多家云提供商合作开发“开放式小芯片平台”。
该基金的重点之一,是所谓系统级封装的芯片设计概念。系统级封装是一种能把多种类型的计算模块组合在一个产品中的处理器,这种处理器可以把CPU核心与图形卡结合起来。
这一概念类似于为智能手机等设备所采用的片上系统(SOC)。片上系统还包括多种类型的计算模块,片上系统是单个芯片,而系统级封装处理器则包括了多个连接在一起的独立芯片。英特尔和其他主要芯片制造商正在采用这种系统级的封装方法,因为这种方法可简化制造等任务。
这一技术是英特尔IFS芯片代工业务计划以及今天公布的10亿美元基金的重要组成部分,英特尔期望能够与客户合作制造系统级封装处理器,而且将把重点放在整合RISC-V指令集架构的系统级封装产品等方面。
此外,英特尔还表示,正在规划“相关投资和产品,进一步加强生态系统,以及推动RISC-V的普及”,其中投资将横跨多个领域。
首先,英特尔将支持早期初创公司开发可能对其IFS代工业务客户有价值的技术。其次,英特尔将对合作伙伴进行“战略投资”,帮助他们扩大业务规模。第三个关注领域将是进行“生态系统投资”,推进诸如为芯片行业开发新技术标准等目标。
作为生态系统战略的一部分,英特尔将加入支持RISC-V指令集架构开发的非营利组织RISC-V International,此外英特尔宣布与四家提供RISC-V芯片的公司建立合作伙伴关系,包括Andes Technology、Esperanto Technologies、SiFive和Ventana Micro Systems。
英特尔将与合作伙伴合作开发经过验证的RISC-V核心,使代工业务的客户可以轻松地将其集成到他们的芯片设计中,而且这些核心将针对不同的细分市场进行优化。
英特尔首席执行官Pat Gelsinger表示:“代工厂客户正在迅速采用模块化设计方法来战士自身产品的差异化并加快上市速度。英特尔代工服务已经做好了引领这一重大行业转折的准备,借助这一新的投资基金和开放式小芯片平台,我们可以帮助推动生态系统开发跨全系列芯片架构的颠覆性技术。”
英特尔表示,从长远来看,英特尔希望与其他芯片制造商展开合作,为系统级封装处理器制定一个开放标准,也就是“模片到模片的互连”,从而简化那些集成到片上系统处理器的、不同类型的计算模块之间的数据交换任务。
此外,英特尔分享了有关IFS代工业务的技术细节,称IFS正在与多个云提供商合作开发一种开放式的小芯片平台,以打造带有多种类型计算模块的处理器。英特尔表示,该平台“对于那些注重是否可以快速集成那些针对全新的、不断演化的数据中心工作负载进行优化的加速器的客户来说,将是极具吸引力的。”
芯片产业投资系统级封装处理器的原因之一,是该技术可能有助于提高数据中心的性能,如果两个计算模块是同一个系统级封装处理器的一部分,那么它们之间的距离会比作为两个独立芯片实现的距离更短,这就意味着数据可以更快地在不同模块之间传输,从而提高性能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。