在此,我不想过多的介绍实感的技术细节,有兴趣的人可以自行搜索,我想说的其实是英特尔为之所做的努力和相应的商业模式,它们代表了英特尔自身打造生态环境的一种方式,即“半成品”的开放。
实感模块本身是不能直接被最终用户所使用的,它必须嵌入到相应的移动设备中,但这个设备,也就是最终的平台系统是英特尔不会染指的。这和它本身一贯的定位是相符的,即它努力提供基础性的组件,带动更多的系统级厂商来采用它的组件来形成最终的,可能面向于各个相关行业的平台系统。
坚守住这一点,也就保证了英特尔生态环境的可信任度,因为组件级产品是又苦又累的活,并且与最终的应用创新关系并不密切,而与最终用户关系更为紧密的,其实是结合应用场景与需求的应用创新。可以做这种创新的人或企业,又大多不擅长做底层硬件组件的研究,比如将现实中的影像3D数字化,再以此为基础进行应用层面的融合是最终创新的关键,但如何进行现实场景的3D数字化,则是一个前期很重要的基础性工作,但它本身并不意味着创新,因为创新必须要结合应用场景与需求,所以很多创新的点子,可能就因为基础性的研发无法配套而只能是梦想。
但是,英特尔的实感模块与相应的技术外围支持恰到好处的解决了这个问题,但又没有涉足后面实际应用创新的领域。它首先解决了硬件组件的基础性研发的难题,提供了可用的模块,其次还提供了丰富的软件开发工具套件(SDK),开放给ISV或系统厂商,帮助他们快速地开发自己独有的应用或硬件产品,但又不亲自介入最终系统生产领域。这种半成品的开放方针,让英特尔可以赢得更多的合作伙伴。
有人会说,是个半导体公司基本都这么做呀,开发出一个半导体产品,必然也必须提供相应的软件开发平台,以帮助系统厂商的后续研发。但本人要指出的是,如果跳出实感模块本身,以一个更大的格局来看英特尔的“半成品”策略,就不是那么简单了。
实感模块的Android SDK中已经写明,只支持英特尔自家的凌动x5/x7平台,这对后者的生态可谓是一个有力的支撑
就笔记本、平板电脑来说,核心的能力在于处理核心,包括了CPU、GPU以及相应的I/O与存储模块,这可以算是系统的核心功能,很多平台级组件半导体厂商的着眼点也都是如此。而“实感”可以认为是英特尔本着“半成品”的思路,围绕着周边的重点功能需求所做的努力,以进一步巩固自身平台的建设。
实感模块本质上还是属于摄像传感领域,这个领域也有很多的玩家,以前英特尔是不参与的,但3D实时捕捉的应用需求开始起步之后,果断进入,将这一功能逐步纳入到“基本功能”范畴,并与自家的x86平台紧密耦合,从而也大大加强了自身平台的能力。可是在系统级层面又坚守“半成品”的策略,帮助整体的生态系统能更快的进入这一新兴的应用领域。在这一过程中,英特尔的思路很明确——在其所看准的功能领域,并不在乎树立新敌(比如摄像头模块,肯定会与其他同类厂商展开竞争),因为其主要的关注点在于帮助最终的应用创新。
在本次IDF15上,英特尔一个重要的宣传重点是“创客”,它源于英文Maker,即让英特尔成为“创新的使能者”。而创新的真正难点与关键点在前文已经讲明,底层的硬件平台固然重要,但更能打动人心的是在其上所延展出来的应用场景。英特尔所做的正是不断提供相应新功能创新底层的硬件半成品,帮助相应的系统与应用厂商更快的实现创新,更快的交付最终可用的系统级产品,以吸引更多的最终消费者————这才是决定其生态系统的关键,也是更值得我们关注的思路
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。