由全球视觉计算行业领袖NVIDIA(英伟达)和中科院联合举办的首届大数据分析论坛(BDA 2015)于10月26日成功举办,该论坛汇聚了来自国内各高校及研究院所大数据分析领域的知名学者、研究人员,会上针对大数据分析领域在中国的研究成果和发展状况做了深入交流,并围绕如何利用GPU在大数据分析领域进行创新研究做了充分交流。
会上,NVIDIA全球副总裁、PSG&云计算业务总经理Ashok Pandey、中科院计算机网络信息中心副主任兼超级计算中心主任迟学斌,一同为 NVIDIA与中科院联合建立的GPU研究中心揭牌。该研究中心隶属于中科院网络计算中心,包括教育中心和培训中心两部分,并将为中科院网络计算中心所支持的中科院下属机构提供基于GPU的高性能计算平台,以及相关的技术培训等支持,为各研究机构大数据分析、科研和创新工作提供有力支持。
如今,大数据分析在中国的应用已覆盖到各个领域。本次论坛从“大数据分析领域前沿”、“大数据分析的商业应用”以及“大数据分析的科学应用”等三个主题进行了深入讨论。
视觉识别、遗传、自然语言处理、地震预测、NoSQL数据库吞吐量优化……这些都已成为GPU在大数据分析最前沿的应用领域,GPU强大的并行计算能力可以高效地处理海量数据,并对数据加工实现“增值”。如今,包括清华大学、浙江大学、北京大学、中国科学技术大学、复旦大学以及中国地震局地壳应力研究都将这些课题列为重点研究方向。而在科学应用领域,卫星通信中扩频信号的捕获,网络安全,磁共振成像诊断等细分领域都受益于GPU的加速。
深度学习是大数据分析领域中非常热门的方向,GPU更成为大数据和深度学习研究的基石,并由此为各类大数据分析的商业应用提供支持。会上,包括NVIDIA的技术专家、曙光、浪潮、柏睿数据(Rapids DB)都围绕GPU在深度学习领域的优势做了介绍和探讨,并一致认为GPU掀起了整个深度学习领域的革命。其中,诸如曙光深度学习一体机、NVIDIA推出的DIGITS开发环境都为企业对大数据分析的商业应用提供了完整的软硬件解决方案。
此次大数据分析论坛的举办,表明结合智能计算的大数据分析正成为全行业的热点,特别是将深度学习技术应用于大数据分析,加上完整的GPU软硬件解决方案,最终将在科研、商业等领域创造出巨大的价值。NVIDIA也将进一步加深与中科院的合作,挖掘更多大数据分析的科研和商业应用的前沿话题,将此论坛打造成国际性大数据分析的学术会议。
好文章,需要你的鼓励
香港大学联合多家顶尖机构开发出推测性雅可比降噪解码技术,巧妙融合扩散模型降噪与自回归并行处理,将AI图像生成速度提升2-5倍。该方法通过训练模型处理噪声输入并预测干净标记,实现多位置同时生成,在保持图像质量的同时大幅缩短等待时间,为AI创作应用带来革命性改善。
谷歌推出类似苹果私有云计算的新平台,让用户在享受先进AI功能的同时保护数据隐私。该平台将复杂AI请求转移到云端处理,确保敏感数据仅用户可见,连谷歌也无法访问。随着AI工具需要更强计算能力,这一方案平衡了隐私保护与性能需求。Pixel 10手机将获得更智能的Magic Cue建议和更多语言的录音转录功能。
韩国大学等机构研究团队提出TAG方法,解决AI绘画中的"幻觉"问题。该方法通过放大扩散过程中的切线分量来引导AI生成更真实图像,无需重训练模型且计算成本极低。实验显示TAG能显著改善图像质量,减少不合理细节如多指手等,同时可与现有引导技术结合使用,为AI绘画领域提供了简单有效的优化方案。