5月11日,英特尔人工智能创新应用大赛总决赛暨颁奖典礼在北京举办。在历时五个月的角逐后,来自个人赛道和企业赛道的2120支团队中,共有30支团队的优秀作品脱颖而出并晋级总决赛,这些作品新颖、实用且可落地,覆盖互联网、教育、医疗、农业、建筑、法律、零售、文旅、工业、能源、游戏、影视、广告等多个领域。其中,来自个人赛道的VidBot团队和企业赛道的熊猫AI团队分获其赛道的一等奖。
在本次大赛中,针对不同的应用开发场景,参赛者在搭载英特尔酷睿Ultra处理器的AI PC上灵活利用CPU、GPU和NPU三大AI引擎,以及OpenVINO、IPEX-LLM等丰富的开源软件框架及优化工具链,快速进行AI调优及部署,开发可落地的创新应用。
英特尔公司副总裁、英特尔中国软件与先进技术事业部总经理李映在活动上表示,随着人工智能进入爆发式发展,未来每一个开发者和用户都会成为AI创新的参与者。英特尔率先定义了AI PC,为开发者提供高效、便捷的AI工具,也成为每个使用者的AI助手。
众所周知,AI PC在软硬件层面已经准备就绪。
截至5月初,超过500个AI模型可在英特尔酷睿Ultra处理器上实现优化运行,体现了英特尔致力于为AI开发者打造PC行业极具优势的工具链,并为AI软件用户构建值得信赖的模型支持。
例如英特尔初步测试和评估80亿和700亿参数的Llama 3模型在自身产品上的性能时,使用了包括PyTorch、DeepSpeed、英特尔Optimum Habana库和英特尔PyTorch扩展包在内的开源软件,并提供最新的软件优化。
这些模型可在中央处理器CPU、图形处理器GPU和神经网络处理单元NPU上进行部署,它们可以通过业界主流的途径被获取使用,包括OpenVINO Model Zoo、Hugging Face、ONNX Model Zoo和PyTorch。
模型涵盖了本地AI推理的多种类别,包括大语言处理、扩散处理、超分辨率、目标检测、图像分类/分割、计算机视觉等本地AI推理的多种类别。
多举措丰富AI PC应用生态
目前,围绕AI PC形成的新场景不断涌现,比如AI Chatbot、AI PC助理、AI Office助手、AI本地知识库等。新的商业应用和商业模式在加速落地,目前有超过100家的软件ISV与英特尔展开深度合作,全面解锁AI在教育、医疗、制造等各个领域的应用。
英特尔联合生态伙伴一起通过培训分享、应用推广、资源对接、市场拓展等多维度举措,为开发者提供技术应用和市场推广的全面支持,助力开发者实现其应用的商业化发展。
比如英特尔将定期举办以AI为主题的培训活动,分享研发资料、提供专家答疑,为开发者提供技术支持;英特尔将携手诸如OEM、ISV等生态渠道伙伴,利用广泛的市场资源,推广精选的AI PC企业应用案例,助力应用的产品化进程;英特尔还将提供加入英特尔大湾区科技创新中心的创新生态网络并参与相关活动的机会,针对有项目落地需求的企业赛道项目团队,参与创新中心项目遴选可获额外加分,优先获得办公空间、技术支持、成果展示等创新赋能服务。
去年10月,英特尔宣布“AI PC加速计划”,旨在将独立硬件供应商和独立软件供应商与英特尔资源连接起来,涵盖了从AI工具链、培训、协同工程、软件优化、硬件、设计资源、技术专长、联合营销以及销售机会等全方位支持。
而今年3月份,英特尔为“AI PC加速计划”增添两项AI新举措:新增“AI PC开发者计划”,以及吸纳独立硬件供应商(IHV)加入“AI PC加速计划”,以期进一步扩大其覆盖范围,吸引大型ISV、中小型企业,以及开发者的参与。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。