英特尔公司高级副总裁、英特尔中国区董事长王锐表示:“英特尔继续坚持‘硬核创新’推进科技发展,在芯片、软件和服务领域,‘三管齐下’全面满足多元需求,为数字经济的蓬勃发展助力。我们以制程工艺、封装技术等为基础,在软硬件产品更新上大步快跑,实现了一系列积极进展。”
2022年1月,在CES 2022上,英特尔展示了在自动驾驶、PC和显卡领域的里程碑式进展,加速创新引擎,助力行业数字化转型:
2022年2月,作为奥运会全球TOP合作伙伴,英特尔的一系列创新技术闪耀北京冬奥会场,充分释放科技冬奥的魅力:
2022年2月,英特尔宣布设立10亿美元代工创新基金,并加入RISC-V International,推动建立开放的代工生态系统。
2022年2月,英特尔和领先的半导体解决方案代工厂Tower半导体宣布达成最终协议。英特尔将以每股53美元的现金收购Tower半导体,总企业价值约为54亿美元,该交易预计将在12个月内完成。
2022年2月,在2022年投资者大会上,英特尔概述了公司发展战略及长期增长规划的主要内容,分享全系列产品和制程工艺路线图及重要执行节点。在未来四年里,推出Intel 7、Intel 4、Intel 3、Intel 20A和Intel 18 A等五个制程节点,并预计到2030年在单个设备中提供约1万亿个晶体管,充分把握转型增长的机遇。
2022年2月,在2022年巴塞罗那世界移动通信大会(MWC)中,英特尔推出针对软件定义的网络和边缘而全新开发的片上系统——英特尔®至强™D系列处理器,以及三年多以来对OpenVINO的最大升级——OpenVINO工具套件2022.1版本。
2022年3月,英特尔携手行业领先企业成立UCIe联盟,旨在推行开放的晶片间互连标准,致力于通过新的UCIe开放标准来推进半导体架构创新的未来。
2022年3月,英特尔宣布推出面向笔记本电脑的英特尔锐炫™A系列移动端独立显卡,旨在为全球游戏玩家和内容创造者带来高性能的图形体验。
2022年3月,英特尔发布专为商用场景打造、基于第12代英特尔酷睿™处理器的最新英特尔vPro平台。
2022年4月,英特尔公布收购总部位于以色列的实时持续优化软件开发商——Granulate云解决方案公司的协议,助力云与数据中心用户最优化计算工作负载性能。该交易预计将于2022年第二季度完成。
2022年4月,英特尔承诺到2040年实现全球业务的温室气体净零排放,制订具体目标以提升英特尔产品和平台的能源效率并降低碳足迹,同时与客户和行业伙伴合作,制订各项解决方案,降低整个技术生态系统的温室气体足迹。
2022年4月,英特尔与QuTech合作首次实现了硅量子比特的规模化生产。
2022年5月,英特尔oneAPI为GROMACS 2022提供技术支持,为确定针对乳腺癌、新型冠状肺炎、2型糖尿病等疾病关键药物的解决方案做出贡献。
2022年5月,在英特尔On产业创新峰会(Intel Vision)上,英特尔公布了在芯片、软件和服务方面取得的多项进展,展示了英特尔如何通过整合技术和生态系统,面向目前以及未来,为客户释放商业价值。
2022年5月,英特尔开源SYCLomatic迁移工具,助力开发者更轻松地将CUDA代码迁移到SYCL和C++,从而加速面向异构架构的跨架构编程。
2022年6月,英特尔宣布面向台式机的首款A3系列显卡——英特尔锐炫™A380 GPU面市。该产品将在中国首发,由系统制造商于本月面市,随后通过OEM厂商以组件的形式面市。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。