全新NVIDIA应用研究加速器计划(Applied Research Accelerator Program)助力研究人员将学术实验室里的AI研究应用于企业中。
学术研究人员正在通过开发和使用AI,解决从农业机器人到自主飞行器等领域的各种难题。
为了将此类AI研究应用于商业或政府中,而非仅作为学术成果,NVIDIA于近日发布应用研究加速器计划,为借助NVIDIA平台进行GPU加速应用部署的应用研究提供支持。
应用研究加速器计划最初会聚焦于机器人技术及自主机器领域,并在接下来几个月内扩展至数据科学、自然语言处理、语音和会话式AI等其他领域。
据IDC估计,到2023年,全球机器人系统和无人机领域相关支出将增至2414亿美元,较针对 2020 年预计的1287亿美元提升88%。
这项新计划将帮助研究人员及其合作机构推广在NVIDIA AI软硬件平台上开发的新一代应用程序,包括Jetson平台、NVIDIA Isaac以及DeepStream软件开发套件。
除了进行交流和市场宣传的机会之外,NVIDIA还将为开展合作的研究人员和机构提供技术指导、硬件捐赠、资金、资助申请帮助以及AI训练计划方面的支持。
NVIDIA现在正在将部分研究人员和企业开发的应用程序纳入该计划。这些研究人员致力于将机器人技术和AI应用于自动化系统中,而这些企业则希望将新的技术推向市场。
加速并部署AI研究
NVIDIA 应用研究加速器计划的首批参与者已经展示了值得进一步开发的AI技术能力。
应用研究加速器计划权益
当学术研究人员能够验证AI在实际应用中具有可行性时,NVIDIA能够为其提供硬件捐赠及资金,还可以为研究人员提交的第三方资助申请提供佐证书。
应用研究加速器计划成员还将获得NVIDIA GPU(包括Jetson)的相关技术指南访问权限。
这项新计划的成员还有机会参加深度学习学院(Deep Learning Institute)培训课程,以获取关于特定AI应用的详细信息。
NVIDIA还为研究人员提供在GTC大会上进行展示和交流的机会。
好文章,需要你的鼓励
Meta 正研发一项通过姓名识别人脸并追踪用户日常活动的“超级感知”技术,计划应用于新款智能眼镜和 AI 耳机,同时重新评估隐私策略,助推 AI 技术在穿戴产品中的应用。
Google 在 Gemini API 中推出自动缓存功能,通过复用重复数据为开发者节省最多 75% 的调用成本,有望缓解高额 API 费用问题。
Korl 利用 OpenAI、Gemini 及 Anthropic 等模型,从 Salesforce、Jira、Google Docs 等多个平台整合数据,自动生成定制化客户沟通材料,如幻灯片、演讲稿及季度业务回顾,同时保证数据安全性,并提升运营效率。
文章探讨了代理型 AI 的崛起,重点介绍微软 Azure AI Foundry 与 NVIDIA 技术如何通过强大语言模型和智能代理,实现企业级应用创新,提升运营效率与服务质量。