由全球视觉计算行业领袖NVIDIA(英伟达)和中科院联合举办的首届大数据分析论坛(BDA 2015)于10月26日成功举办,该论坛汇聚了来自国内各高校及研究院所大数据分析领域的知名学者、研究人员,会上针对大数据分析领域在中国的研究成果和发展状况做了深入交流,并围绕如何利用GPU在大数据分析领域进行创新研究做了充分交流。
会上,NVIDIA全球副总裁、PSG&云计算业务总经理Ashok Pandey、中科院计算机网络信息中心副主任兼超级计算中心主任迟学斌,一同为 NVIDIA与中科院联合建立的GPU研究中心揭牌。该研究中心隶属于中科院网络计算中心,包括教育中心和培训中心两部分,并将为中科院网络计算中心所支持的中科院下属机构提供基于GPU的高性能计算平台,以及相关的技术培训等支持,为各研究机构大数据分析、科研和创新工作提供有力支持。
如今,大数据分析在中国的应用已覆盖到各个领域。本次论坛从“大数据分析领域前沿”、“大数据分析的商业应用”以及“大数据分析的科学应用”等三个主题进行了深入讨论。
视觉识别、遗传、自然语言处理、地震预测、NoSQL数据库吞吐量优化……这些都已成为GPU在大数据分析最前沿的应用领域,GPU强大的并行计算能力可以高效地处理海量数据,并对数据加工实现“增值”。如今,包括清华大学、浙江大学、北京大学、中国科学技术大学、复旦大学以及中国地震局地壳应力研究都将这些课题列为重点研究方向。而在科学应用领域,卫星通信中扩频信号的捕获,网络安全,磁共振成像诊断等细分领域都受益于GPU的加速。
深度学习是大数据分析领域中非常热门的方向,GPU更成为大数据和深度学习研究的基石,并由此为各类大数据分析的商业应用提供支持。会上,包括NVIDIA的技术专家、曙光、浪潮、柏睿数据(Rapids DB)都围绕GPU在深度学习领域的优势做了介绍和探讨,并一致认为GPU掀起了整个深度学习领域的革命。其中,诸如曙光深度学习一体机、NVIDIA推出的DIGITS开发环境都为企业对大数据分析的商业应用提供了完整的软硬件解决方案。
此次大数据分析论坛的举办,表明结合智能计算的大数据分析正成为全行业的热点,特别是将深度学习技术应用于大数据分析,加上完整的GPU软硬件解决方案,最终将在科研、商业等领域创造出巨大的价值。NVIDIA也将进一步加深与中科院的合作,挖掘更多大数据分析的科研和商业应用的前沿话题,将此论坛打造成国际性大数据分析的学术会议。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。