作者:ROBERT HOF
更新时间:2018年3月9日 美国东部时间18:54
据报道,英特尔公司正在考虑一些收购的可能性,其中就包括了博通,这显然是为了阻止其敌意收购高通。
《华尔街日报》今天晚些时候的报道表示,这家总部位于加利福尼亚州圣克拉拉的芯片巨头正在权衡这些选择,因为该公司的高管们担心博通和高通的合并可能会形成一个厉害的竞争对手,特别是在支持智能手机和其他移动设备的芯片方面。
《华尔街日报》表示,如果博通看起来能够赢得收购的话,英特尔自己可能会出价收购博通。自从去年11月份,博通宣布竞购高通之后,该公司显然已经考虑了这个选择。不过,由于双方在争夺地位,而美国的监管机构也已经开始介入此事,博通收购高通的可能性最近在下降。
这笔交易可能会让英特尔付出代价,该公司的市值大约为2440亿美元,高于高通1040亿美元的市值。这仍将是一个漫长的过程,不仅仅是因为这是英特尔迄今为止最大的一笔收购,还因为整合两家公司各种产品线的难度很大。消息人士表示,不保证英特尔会提出这样的要约,有一位消息灵通人士表示英特尔不太可能会这样做。
然而,如果这种情况发生了的话,它将继续加速半导体行业的兼并和收购。合并不仅受到规模经济的驱动,而且受到对新型芯片需求的推动,这些新型芯片是不断扩大的新设备所需要的,合并还是新的处理方式的要求,这些处理方式是针对人工智能和机器学习应用程序的,例如图片和语音识别以及自动驾驶汽车。
英特尔自己最近在收购上的胃口也很大,近几年斥资数十亿美元收购了Altera和Mobileye等公司。更重要的是,博通的产品既可以与英特尔的产品互补,又可以提供移动芯片方面的强大实力,而这个领域基本上已经从英特尔手中溜走了,该公司的传统阵地是个人电脑领域,直到现在,该公司的业务仍然集中在个人电脑和计算机服务器方面。
Moor Insights & Strategy 的总裁及首席分析师Patrick Moorhead 对SiliconANGLE 表示:“这当然和英特尔有协同效应。”他表示:“首先,它将让英特尔在移动领域和物联网WiFi、蓝牙以及无线射频芯片领域站稳脚跟。博通主要的数据中心网络也非常适合英特尔。”
博通已经稳步加强了对高通的追求,最近一个月它的出价上调到了1210亿美元。最近两家公司一直在彼此周旋,但显然高通并不想被收购,尤其是因为它正在试图以440亿美元收购恩智浦。
两家公司的股东大会都将在本周初召开,这可能会产生一个结果,因为博通试图罢黜高通的董事会,并让自己的代理人取代该公司的董事。但是,星期二美国外国投资委员会(U.S. Committee on Foreign Investment)表示博通收购高通可能会给国家安全带来风险,其在半导体行业留下的空白可能会被中国填补,因为博通公司至少有一部分位于新加坡。
这起交易出于国家安全的理由被推迟,此事被视为特朗普政府针对中国的一种贸易姿态。由于美国外国投资委员会(CFIUS)的调查,高通重新调整了4月5日召开的年度会议。
博通公司在星期三发布的一份声明中坚持表示,它“从所有重要的方面来看都是一家美国公司。”它表示将保留高通公司的5G研发资源,并承诺创建一个15亿美元的新基金,“培训并教育美国的下一代工程师”,以“确保美国在未来的无线技术上领先。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。