英特尔公司今天宣布,其已经选定临时首席执行官Robert Swan出任其正式掌门人,这也意味着自七个月前开始的CEO人选物色之旅终于划上句号。
在前任CEO Brian Krzanich卸任之后,这位暂代掌门人(如图所示)率先接过芯片巨头的权柄。顺带一提,Krzanich是因为与某位违反公司政策的员工达到“双方自愿的不正当关系”而遭到撤职。
在此之前,Swan一直担任英特尔公司的首席财务官。他总计为芯片巨头效力三年多,但面对这家所有六位前任CEO皆为元老级员工或原初创始团队成员的公司,过浅的就职经历使他一直没能进入新任掌门的竞争者名单。
不仅如此,考虑到其它一些因素,Swan此次胜出实在令人感到惊讶。根据报道,这位高管去年曾向同事们表示,他并不想出任正式CEO这一职务。另有知情人士在采访中指出,英特尔公司董事会实际上也更倾向于挑选另一位身份未公开的候选人。但在遭遇沟通失利之后,芯片巨头不得已将Swan扶上正位。
Moor Insights & Strategy公司总裁兼首席分析师Patrick Moorhead在接受采访时评论称,“我对此确实感到惊讶,因为Swan自己明确表示不想出任这一职务。但我也一直认为,他应该认真考虑挑起这副重担。英特尔公司迫切需要改善自身运营情况,因此从外部引入一位对英特尔不够熟悉的职业经理人显然没有意义。”
据报道,英特尔公司曾经为掌门人一职认真考虑过内部与外部人选。该公司的候选人名单据称包括现任首席工程官Venkata Renduchintala、核心数据中心芯片业务执行副总裁Navin Shenoy,以及苹果公司芯片开发负责人Johny Srouji等。此外,包括曾担任英特尔公司总裁的Renee James在内的多名前任高管也被列入备选名单当中。
Swan并不像报道提到的其他一些候选人那样拥有可观的半导体行业从业经历,但他的当选确实为CEO这一角色注入了强大的信誉基础。这位高管在加入英特尔之前曾经担任General Atlantic公司的运营合伙人,这是一家著名的私募股权企业,曾经为Slack Technologies有限公司以及Airbnb等初创企业提供有力支持。
在此之前,他曾经在网络零售企业eBay公司拥有长达九年的CFO工作经历。继续向前追溯,他还担任过Web Group有限公司CFO、COO以及CEO(这家生鲜电商最终宣告破产),并在职业生涯早期在通用电气公司效力十五年。时至今日,他仍然是eBay公司的董事会成员之一。他已经结婚,而且是两个孩子的父亲。
Swan在今天上午写给英特尔公司员工的一封信中表示,他计划继续推动公司的现有发展战略。
他在信中写道,“我们正在从一家以PC为中心的企业,逐步转型为一家以数据为中心的企业,致力于建立技术基础从而为全球创新活动提供动力。上任之后,我们将在客户服务的具体方式以及如何引导合作伙伴共同建立最佳技术方案方面做出调整。第三,我们的执行效能必须得到改进。我坚信我们能够实现这些目标。”
英特尔公司上周公布的第四季度收入低于华尔街的预期。经过多年处理器开发路线图延迟之后,英特尔公司正面临着来自AMD等市场对手强大的竞争冲击与压力。英特尔公司目前计划于2019年年末开始推出其下一代10纳米处理器,这一时间节点已经较原定的2015年目标日期落后了四年。
Moorhead认为,Swan能够带领英特尔公司走上更好的发展道路。他总结称,“英特尔公司拥有着非常强大的人才储备,其中两位[Renduchintala与Shenoy]都是有能力出任CEO的帅才,他们将帮助Swan与英特尔迎来光明的未来。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。