2024年6月11日,上海——今天,英特尔与震坤行共同推出英特尔®智能物联聚合馆。这不仅是英特尔在物联网领域深度开拓市场的战略举措,也是其携手生态合作伙伴共同拓宽发展、优化解决方案的具体实践。
在持续服务和满足蓬勃发展的物联网应用场景需求的道路上,英特尔从未停止。早在2022年,英特尔便创建了聚合商的商业模式,并携手广泛的中国物联网解决方案聚合商合作伙伴,针对包括智慧交通、智慧办公、智能制造、智慧零售、智慧园区、智慧教育和智慧医疗在内的七大行业,实现对市场需求的快速响应。而今,英特尔®智能物联聚合馆的推出,则标志着英特尔与领先行业合作伙伴在智能制造领域的进一步深耕。
英特尔公司市场营销集团副总裁、英特尔中国网络与边缘及渠道数据中心事业部总经理郭威表示:“通过与聚合商的紧密合作,英特尔将持续提升对市场动态的敏锐洞察,并拓宽在中国市场的服务版图。与此同时,我们也将不断推动技术创新,以充分满足中国市场的多元化需求。此次与震坤行的携手,无疑使英特尔实现了对于生态覆盖的进一步扩展和完善。”
作为领先的数字化的工业用品服务平台,震坤行在今年正式成为英特尔物联网解决方案聚合商。震坤行长期立足工业领域,累计合作客户10万+,为客户提供一站式的工业用品采购与管理服务,实现工业用品供应链的透明、高效、降成本。
震坤行副总裁杨昌湘表示:“更好地协同打造产业生态、服务智能制造是我们一直以来的目标。我们愿携手英特尔及硬件设备商、软件合作伙伴,以数字化为引领,以成就客户为导向,在助力中国品牌‘出海’的同时,构建一个更大规模的中国制造业体系。”
双方此次发布的英特尔智能物联聚合馆聚焦于工业领域,英特尔作为核心模块,联动合作伙伴共建智能制造的物联生态圈。可通过线下线上多入口引流,打造一个高效交易阵地,进而为客户提供一站式智能物联网解决方案。在这一创新合作模式下,英特尔将通过聚合生态系统,与OEM/ODM伙伴紧密协作,在提供渠道赋能的同时,支撑底层服务并制定技术路线;震坤行则专注于链接用户,在积极推进平台营销运营的同时,持续提供服务交付;其他软硬件合作商将深耕产品方案,持续优化解决方案、提供技术支撑。
英特尔公司网络与边缘事业部工业解决方案中国区高级总监李岩表示:“英特尔长期深耕智能制造领域,并以高可靠性与高稳定性的软硬件组合和强大的计算能力,为客户提供全面的技术解决方案和支持。我们会和生态伙伴一起持续聚合产品与方案,从而助力中小企业降低开发成本,满足不同行业、不同场景下的数字化和万物互联需求。”
在此过程中,英特尔将持续以满足严苛工业环境要求的计算平台、边缘节点参考架构、英特尔®工业边缘洞见平台(EIS)、英特尔®工业边缘控制平台(ECI)等软硬件为基础,辅以全方位的产业链支持,打造针对机器视觉、工业数字化、工业控制及机器人领域的工业解决方案,帮助客户实现实时检测及高精度结果,并在降低系统生产周期的同时,满足不同应用的性能需求。
英特尔与震坤行的此次合作充分彰显了双方的共同愿景:通过生态聚合,为广泛制造业客户带来卓越的产品和服务,同时为中国企业带来更多海内外市场机遇。通过此次合作,英特尔也将借助震坤行面向制造业用户的广泛影响力与大数据整合能力,更全面、更及时地感知用户需求变化与趋势,从而以用户需求为导向进行技术路线和行业标准的设计与制定。
技术的迅猛发展为各行各业带来了前所未有的机遇与挑战。展望未来,英特尔将与包括震坤行在内的更多生态伙伴一起以创新的商业模式洞察市场需求,提供更加丰富的优化解决方案和优质服务,持续助力智能制造产业升级与中国数智化转型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。