5月11日,英特尔人工智能创新应用大赛总决赛暨颁奖典礼在北京举办。在历时五个月的角逐后,来自个人赛道和企业赛道的2120支团队中,共有30支团队的优秀作品脱颖而出并晋级总决赛,这些作品新颖、实用且可落地,覆盖互联网、教育、医疗、农业、建筑、法律、零售、文旅、工业、能源、游戏、影视、广告等多个领域。其中,来自个人赛道的VidBot团队和企业赛道的熊猫AI团队分获其赛道的一等奖。
在本次大赛中,针对不同的应用开发场景,参赛者在搭载英特尔酷睿Ultra处理器的AI PC上灵活利用CPU、GPU和NPU三大AI引擎,以及OpenVINO、IPEX-LLM等丰富的开源软件框架及优化工具链,快速进行AI调优及部署,开发可落地的创新应用。

英特尔公司副总裁、英特尔中国软件与先进技术事业部总经理李映在活动上表示,随着人工智能进入爆发式发展,未来每一个开发者和用户都会成为AI创新的参与者。英特尔率先定义了AI PC,为开发者提供高效、便捷的AI工具,也成为每个使用者的AI助手。
众所周知,AI PC在软硬件层面已经准备就绪。
截至5月初,超过500个AI模型可在英特尔酷睿Ultra处理器上实现优化运行,体现了英特尔致力于为AI开发者打造PC行业极具优势的工具链,并为AI软件用户构建值得信赖的模型支持。
例如英特尔初步测试和评估80亿和700亿参数的Llama 3模型在自身产品上的性能时,使用了包括PyTorch、DeepSpeed、英特尔Optimum Habana库和英特尔PyTorch扩展包在内的开源软件,并提供最新的软件优化。
这些模型可在中央处理器CPU、图形处理器GPU和神经网络处理单元NPU上进行部署,它们可以通过业界主流的途径被获取使用,包括OpenVINO Model Zoo、Hugging Face、ONNX Model Zoo和PyTorch。
模型涵盖了本地AI推理的多种类别,包括大语言处理、扩散处理、超分辨率、目标检测、图像分类/分割、计算机视觉等本地AI推理的多种类别。
多举措丰富AI PC应用生态
目前,围绕AI PC形成的新场景不断涌现,比如AI Chatbot、AI PC助理、AI Office助手、AI本地知识库等。新的商业应用和商业模式在加速落地,目前有超过100家的软件ISV与英特尔展开深度合作,全面解锁AI在教育、医疗、制造等各个领域的应用。
英特尔联合生态伙伴一起通过培训分享、应用推广、资源对接、市场拓展等多维度举措,为开发者提供技术应用和市场推广的全面支持,助力开发者实现其应用的商业化发展。
比如英特尔将定期举办以AI为主题的培训活动,分享研发资料、提供专家答疑,为开发者提供技术支持;英特尔将携手诸如OEM、ISV等生态渠道伙伴,利用广泛的市场资源,推广精选的AI PC企业应用案例,助力应用的产品化进程;英特尔还将提供加入英特尔大湾区科技创新中心的创新生态网络并参与相关活动的机会,针对有项目落地需求的企业赛道项目团队,参与创新中心项目遴选可获额外加分,优先获得办公空间、技术支持、成果展示等创新赋能服务。
去年10月,英特尔宣布“AI PC加速计划”,旨在将独立硬件供应商和独立软件供应商与英特尔资源连接起来,涵盖了从AI工具链、培训、协同工程、软件优化、硬件、设计资源、技术专长、联合营销以及销售机会等全方位支持。
而今年3月份,英特尔为“AI PC加速计划”增添两项AI新举措:新增“AI PC开发者计划”,以及吸纳独立硬件供应商(IHV)加入“AI PC加速计划”,以期进一步扩大其覆盖范围,吸引大型ISV、中小型企业,以及开发者的参与。
好文章,需要你的鼓励
Core Memory播客主持人Ashley Vance近日与OpenAI首席研究官Mark Chen进行了一场长达一个半小时的对话。这是Chen近年来最公开、最深入的一次访谈,话题覆盖人才争夺战、研究战略、AGI时间表,以及他个人的管理哲学。
波士顿大学团队发现当今多模态AI存在严重"偏科"问题:面对冲突的文字、视觉、听觉信息时,AI过分依赖文字而忽视真实感官内容。研究团队构建MMA-Bench测试平台,通过创造视听冲突场景暴露了主流AI模型的脆弱性,并提出模态对齐调优方法,将模型准确率从25%提升至80%,为构建更可靠的多模态AI系统提供重要突破。
脑机接口技术正快速发展,特别是非侵入性方法取得重大突破。通过EEG、fNIRS、MEG等传感技术结合人工智能,实现思维解码、图像重构等功能。聚焦超声波技术能精确调节大脑深层结构,为神经疾病治疗带来新希望。消费级可穿戴设备已能改善睡眠、缓解抑郁。这些技术将重塑人机交互方式,从医疗应用扩展至认知增强领域。
UC伯克利研究团队发现了一种名为"双重话语"的AI攻击方法,能够通过简单的词汇替换绕过当前所有主流聊天机器人的安全防护。攻击者只需用无害词汇替换危险词汇,就能让AI在不知不觉中提供危险信息。研究揭示了现有AI安全机制的根本缺陷,迫切需要开发新的防护策略来应对这一威胁。