话说这段时间我们被ChatGPT刷屏,这样直接带动了AI应用的热潮。谈到AI,我们就不得不说GPU,而说到GPU,我们就不得不说NVIDIA。
毕竟作为AI产业的重要赋能者,NVIDIA在软硬件方面提供了丰富的工具加速AI应用开发。而在NVIDIA强大的生态系统中,开发者是非常重要的一个角色。
在NVIDIA GPU和CUDA软件的协同下,开发者可以有机会接触到更先进的AI技术。NVIDIA也在通过丰富多彩的举措提升开发者的AI开发水平。
开发者可以免费加入NVIDIA开发者计划,使用最新的 NVIDIA SDK 和工具,以加速其在人工智能、深度学习、加速计算和高级图形等关键技术领域中的应用。
到目前为止,中国已有注册开发者人数超过80万人人,全球总的注册开发者人数是近400万,中国已有开发者人数约占全球20%。
多样化活动让开发者获得感满满
除了开发者计划,过去一年,NVIDIA依托开发者社区举办了多样化的活动,比如在线网络研讨会、Sky Hackathon(Sky黑客松)等。
众所周知,受疫情影响,线下活动不方便展开。NVIDIA企业开发者社区依托各大线上平台为开发者朋友们输送了26场在线研讨会活动,通过在线直播的方式,将NVIDIA先进的开发工具使用经验分享给开发者朋友们,其中包括 NVIDIA CUDA、TensorRT、TAO, Maxine, VPI, ,DeepStream, NeMo,RIVA 等开发平台或者工具,涉及机器视觉和智能语音相关领域,期间共有近8000名开发者参与到NVIDIA企业开发者社区组织的在线研讨会活动中,NVIDIA企业开发者社区还通过活动所形成的微信交流群同这些开发者朋友们保持持续沟通,随时沟通GPU开发经验。
过去的一年中,NVIDIA企业开发者社区分别在五月份和十一月份开展了第六届和第七届Sky Hackathon活动。其中第六届Sky Hackathon主题是创建AI大白,有49支团队共300名开发者参与了本次黑客松活动;第七届Sky Hackathon主题是挑战智能语音垃圾分类任务,共有33支队伍共201位开发者参与本届黑客松。
Sky Hackathon(Sky黑客松)由 NVIDIA发起并主办,项目旨在帮助在校学生、深度学习开发者在NVIDIA Jetson边缘高性能计算产品上部署和优化人工智能应用。在经验丰富的GPU导师指导下,通过黑客松竞赛的方式学习业界所需的深度学习相关应用开发及其并行计算技能,激发学生们的学习兴趣与创新力。
NVIDIA工程师将亲自为参赛队伍带来他们对最新的深度学习与边缘计算方面的理解、行业的趋势与最新的技术应用及最新开发工具实战技能知识,在训练营中对参赛队伍进行指导。
Sky Hackathon为参加者提供了一个难得的学习并实操的机会,学习嵌入式深度学习开发所需的动手技能, 通过使用NVIDIA最新的编程模型、库和工具以加速和优化他们的AI应用程序。整个活动包含了训练营和黑客松比赛,全程采用在线的方式。
我们说,教育要从娃娃抓起。除了面向外部开发者的社区,NVIDIA在公司内部,面向K12阶段的NVIDIA员工子女,开展了包括口罩检测、自动语音识别等内容的五场视觉和智能语音相关的科普实验活动。
NVIDIA企业开发者社区的同事经过对实验内容进行设计,使得课程内容对无相关知识背景的小朋友也能轻松被理解。小NVIDIAN们通过在浏览器页面上的代码段的执行,来了解和学习人工智能在计算机视觉上的应用。这种特别定制的动手学习活动能够激发儿童和青少年在编码、人工智能、边缘计算等方面的潜能,抢先一步迈入基于大数据、算法、算力应用的人工智能时代。
CUDA生态持续赋能开发者
工欲善其事必先利其器!在深度学习蓬勃发展的今天,模型变得越来越深,参数愈加庞大,虽然准确率不断增长,由于硬件受限,对实际场景部署的要求也越来越高,CUDA编程成为了一门必备的武林绝学。
通过CUDA,用户可方便地使用封装好的SDK对GPU进行复杂的数值计算,在深度学习领域,CUDA提供了一套强大的加速并行计算和人工智能相关的代码库。依托于CUDA软件栈进行第三方应用及工具的扩展,形成了广义的CUDA生态。
NVIDIA CUDA线上训练营由NVIDIA发起,旨在帮助初学者学习如何在GPU上快速加速代码,掌握CUDA编程的基本概念和技能。NVIDIA工程师将通过为期5天的时间,系统性地介绍Arm 嵌入式平台的特色,以及在该平台上如何实现CUDA并行加速计算。
通过四大模块的学习,并搭配丰富的线上实验环节,让学生们掌握基于Arm的Jetson开发环境和GPU异构计算原理,了解CUDA编程模型,包括线程组织和CUDA存储单元,以及如何利用共享存储单元优化应用等,每次课程介绍完,会提供相应的编程实例,让学生在实际操作中理解概念。
过去一年中,NVIDIA企业开发者社区面向在校大学生(包括研究生)开展了两场在线训练营活动,为相关专业在校学生提供免费使用的硬件平台——由NVIDIA Jetson Nano/NX搭建的服务器,参加活动的同学可以通过远程连接服务器端口来使用这些硬件资源,体验GPU开发流程。累计超500位开发者参与了在线训练营活动,近百位开发者通过训练营结课考试拿到了由NVIDIA企业开发者社区颁发的结课证书。
训练营期间,开发者社区还组织了方面线上沟通的微信交流群,方便开发者朋友们能够及时在群里交流经验,答疑解惑。
结语
面向蓬勃发展的AI大潮,开发者的重要性不言而喻。而NVIDIA依托开发者计划和开发者社区,持续赋能开发者,让AI应用开发更简单。随之而来,基于NVIDIA技术的开发者持续壮大,还等什么,快快加入社区,开启你的AI开发之旅吧!
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。