2017年8月9日,NVIDIA公司深度学习学院(DLI)在北京举办媒体开放日,与会媒体亲自动手实验了几种深度学习最常见的应用场景,深度体验到NVIDIA DLI课程针对不同编程基础的人,提供由浅入深的多级课程的特色。
NVIDIA DLI课程由NVIDIA联合谷歌、Facebook、亚马逊等全球领先的深度学习客户和伙伴,以及深度学习领域资深专家,依托全球最先进的深度学习研究与探索进行设计,内容涵盖从入门到进阶的深度学习培训,形式包含线上实验室和线下培训班。
虽然NVIDIA DLI提供了关于深度学习的丰富课程,但是在活动上,作为没有任何编程基础的记者,仍可以在讲师的帮助下完成了基于Caffe2、MXNet和TensorFlow的实验课程。
NVIDIA在DLI开放日上透露,将于9月份在北京举办的GTC CHINA首次面向国内开发者开设针对行业的深度学习培训课程,包括针对医疗、IVA、数字媒体、金融、通信等课程。在这一GPU开发者的年度盛会上,不仅汇聚全球顶级GPU开发者,展出深度学习、超级计算、虚拟现实等领域运用GPU技术而促生的最重要的创新成果,还将提供3天的线下DLI课程培训,通过16个不同的实验室,教授学员通过深度学习解决问题。(点击访问http://www.gputechconf.cn/page/home.html查看会议日程并注册参加大会。)
作为国际领先的将深度学习理论与动手实践相结合的课程,NVIDIA DLI课程因其领先、实用的特色受到全球多家领先企业,政府研究机构以及高等教育院校欢迎。NVIDIA DLI课程具有以下特色:
目前参与DLI培训有多种方式可以选择:
此外,有特殊需求的企业也可以申请开设专门针对该企业的培训。
NVIDIA中国区高级市场总监刘念宁表示:“人工智能是我们这一代的标志性技术。为了满足企业、政府机构和大学的巨大需求,我们正在大力扩展培训的广度和深度,以便让全球的开发人员都可以学习如何利用这一变革性的技术。”
NVIDIA正在通过以下方式扩大DLI的规模:
体验后记:目前深度学习成为热点,而NVIDIA DLI为了帮助培养更多的人工智能人才,进行了更多的努力。而且这些课程在易学性和可操作性方面进行了探索,非常适合不同层次的开发者进行学习。
据悉,2017年将计划培训10万名开发人员,以满足人工智能领域对专业技能飞速增长的需求,这一数字比2016年增长了10倍
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。