ZDNet至顶网服务器频道 04月08日:昨天上午的消息称,英特尔本周宣布,将调整会计方法,在季度财报中合并PC业务和移动设备业务的运营业绩。
这一会计方法调整与英特尔销售团队的重组保持一致。英特尔近期组建了统一的销售团队,不再让两大部门分别维持各自的销售团队。
经过重组后,英特尔的业务包括客户计算集团、数据中心集团、软件及服务、McAfee安全软件,以及其他业务。其中客户计算集团面向消费类PC、笔记本、智能手机、平板电脑、移动通信设备、无线网络设备和有线网络设备销售芯片。
有业内人士认为,合并报告两大业务的业绩将掩盖一些问题。目前,英特尔移动和通信集团单季度亏损约为10亿美元,而PC客户集团则是公司的“现金奶牛”。
对此,英特尔发言人卡拉·沃克尔(Cara Walker)表示,将两大业务的业绩合并报告并不是为了掩盖移动业务的亏损。她指出,这一会计方法的调整与公司组织架构调整保持一致。
从最近几年巨头们调整组织架构来看,其目的不外乎掩盖亏空、伺机收购填补短板、或是出售亏空业务。而英特尔方面已回应不是为了掩盖移动业务的亏损。出售亏空业务应该也不是,因为英特尔是把移动设备业务与PC业务放在了一起,起码英特尔目前仍是全球最大的PC芯片厂商。是不是说明英特尔伺机收购填补短板业务,以谋新增长。
赶巧了,近日来自外媒《华尔街日报》的消息称,英特尔斥资100亿收购阿尔特拉(Altera),目前,双方正处于洽谈阶段。但是英特尔收购并不是填补短板业务,而是向新业务发展。如果交易完成,英特尔是不是就像业界谈论的那样,不玩移动转向物联网掘金了?要移动设备业务自生自灭吗?此次是英特尔历史上最大的一笔收购案,收购阿尔特拉有什么好处呢?
业内人士分析,第一,英特尔收购阿尔特拉是为了FPGA(现场可编程门阵列)芯片。在互联网数据中心应用领域,FPGA芯片成本和占地面积方面都优于传统的网络服务器。但是英特尔并不拥有FPGA技术,自行研发又会错失市场时机。其实,已经有公司开始在数据中心使用阿尔特拉及其主要竞争对手Xilinx的 FPGA芯片。英特尔要保持市场份额,就必须拥有FPGA技术。除此之外,FPGA芯片还将有助于对抗英特尔在服务器产业领域的对手——ARM芯片,所以收购阿尔特拉,无疑是英特尔当下最好的选择。
第二,业内将FPGA芯片称为“万能芯片”,从技术角度来说,它可以在不改变芯片本身硬件组成的情况下反复使用。根据市场变化,在同样的载体上实现不同功能,而且不用更改硬件载体。而目前,FPGA芯片已经在多个市场领域有应用方案,这其中就包括消费电子、智能家居、金融安全、机器人、物联网、汽车电子等。
第三,FPGA芯片在功耗上很有优势。即使是在异构计算中GPU(图形处理器)占据主导地位,但由于功耗较大,数据中心对功耗的要求又高,很多时候GPU都被排除在外。
第四,英特尔是全球电脑处理器芯片的垄断性厂商,而在移动芯片领域,却被ARM架构的芯片所垄断。英特尔不想在物联网和穿戴设备芯片等未来的主流趋势市场落后,所以收购阿尔特拉有很多好处。
我们目前的所有结论都只是分析和猜测,英特尔究竟有什么计划在筹谋?4月8日,2015年英特尔IDF第一天,英特尔CEO科再奇重点介绍了英特尔在实感技术的创新。科再奇表示实感技术不仅可以用在平板电脑、笔记本上,还可以使用在手机上。英特尔计划2015年全面进入可穿戴设备市场,科再奇现场展示了一个安装英特尔实感技术的手机。实感技术+手机有更多创新空间,英特尔也不会放弃移动设备业务。
科再奇为英特尔找到一个定位,“智能和互联解决方案的最佳之选。”——公司的解决方案覆盖了数据中心、个人电脑、移动设备、物联网、可穿戴设备,以及软件。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。