ZD至顶网服务器频道 08月11日 新闻消息:今年年初,NVIDIA发布了深度学习中国战略。近半年时间中,随着这一战略的快速推进,NVIDIA不仅与百度、阿里巴巴和腾讯等多家科技巨头之间展开了深入的合作,同时也将不断加入这一领域的新兴企业视为深度学习生态发展的重要部分。继此前与旷视科技、格灵深瞳等新兴企业展开合作之后,NVIDIA近日与另一家人脸识别技术领域的创新公司Linkface达成长期战略合作,共同推动人脸识别技术创新与应用拓展。
Linkface公司是人工智能领域新兴企业的代表,以提供世界领先的人脸识别技术服务为目标。该公司利用通过NVIDIA GPU加速的深度学习研究平台,先后取得了FDDB人脸检测公开测试世界第一、300-W Benchmark准确率世界第一、LFW人脸识别准确率达99.5%以上的成绩。
NVIDIA全球副总裁兼中国区总经理张建中表示:“深度学习是NVIDIA当前非常重视的领域,除了与百度、阿里巴巴、腾讯以及科大讯飞等已经在该领域处于领先地位的企业有着深入合作之外,新兴企业也是NVIDIA的关注重点,NVIDIA十分愿意通过GPU来帮助各个领域的新兴企业不断创新,推动整个深度学习生态的发展。Linkface拥有雄厚的实力和技术背景,希望通过与Linkface的长期战略合作,进一步释放GPU的计算潜能,在人脸识别领域取得更高的突破”。
“NVIDIA致力于在产品和市场层面推动深度学习领域的创新,通过不断升级GPU性能并持续更新cuDNN、DIGITS等深度学习软件,以及与曙光、浪潮等合作伙伴推出强大的深度学习研究平台,从而助力新兴企业的不断创新。同时,NVIDIA还在北京、上海和广州开展多场深度学习研讨会,吸引了近400家企业的参加”,NVIDIA中国区高级市场总监刘念宁表示:“Linkface作为人脸识别领域极具竞争力的创新公司,NVIDIA除了提供更多的技术和解决方案,也将与其一同在人类识别的市场推广方面展开多维度合作”。
深度学习的快速升温,正是得益于GPU的应用,其强大的并行计算能力,使深度神经网络训练速度大幅提升。Linkface正是通过采用NVIDIA Tesla K40 GPU加速器,将计算时间缩短几十到上百倍,使得原来需要30天的深度学习训练的计算量,只需要10个小时即可完成。最终,NVIDIA的GPU帮助Linkface在今年5月取得FDDB公开测试世界第一的成绩。
GPU性能不断升级的硬件可以让Linkface不断创新人脸检测流程,验证更多的方法,尝试更多的模型,使得拥有强大实力的Linkface在FDDB等平台测试上取得了世界瞩目的成绩的突破。随着Linkface设计模型越发复杂,团队对硬件的需求也会随之变高,NVIDIA针对深度学习不断推出的GPU产品和相关软件工具,为Linkface不断提升自己在人脸识别领域的创新和突破提供了强大的支持。
目前,NVIDIA 正在进行深度学习领域的广泛布局,通过GPU技术,大大促进了深度学习研究领域的发展。通过与更多诸如Linkface、旷视科技以及格灵深瞳等新型企业的合作,进一步建立并完善深度学习技术研发、应用的生态系统,给科技创新带来的巨大增长潜力。未来几年,随着计算机视觉技术的稳步发展,促使产品商业化加速,人工智能将成为产业界追逐的新领地。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。