NVIDIA 近日宣布,Facebook 将在其下一代计算系统中采用 NVIDIA Tesla加速计算平台,从而使该系统能够运行各种各样的机器学习应用。
即便在最快的计算机上,训练复杂的深度神经网络以进行机器学习也需要花费数日或数周的时间,然而 Tesla 平台可将这一耗时缩短 10-20 倍。如此一来,开发者便能够更快地进行创新和训练更复杂的网络,从而为消费者提供更完善的功能。
Facebook 是首家利用 NVIDIA Tesla M40 GPU 加速器来训练深度神经网络的企业,该加速器已于上个月发布。这些加速器将在全新的 “Big Sur” 计算平台中发挥重要作用,这一计算平台是 Facebook 人工智能研究院 (FAIR) 专为训练神经网络而打造的系统。
NVIDIA 加速计算副总裁 Ian Buck 表示:“深度学习使计算行业开启了一个新的时代。借助于大数据和性能强劲的 GPU,深度学习算法能够解决之前不可能解决的难题。从 Web 服务与零售业到医疗与汽车,各大行业均将掀起革命。NVIDIA GPU 一直被用作深度学习的引擎,我们为此感到非常激动。我们的目标是为研究人员和企业提供最高效的平台来推动这一激动人心的事业实现进步。”
除了缩短神经网络训练用时以外,GPU 还能够带来许多其它优势。一代又一代 GPU 之间的架构兼容性可提供无缝的速度提升,让用户将来能够实现 GPU 升级。Tesla 平台越来越多地在世界各地被人们所采用,这有助于用户与全球的研究人员展开开放性合作,从而可在机器学习领域中促进新一轮探索与创新。
Big Sur 专为机器学习而优化
NVIDIA 携手 Facebook 工程师共同设计 Big Sur 并对其进行优化,以便为机器学习任务提供最高的性能,这些任务包括在多颗 Tesla GPU 上训练大型神经网络。Big Sur 的性能高达 Facebook 现有系统的两倍,因而让该公司能够训练两倍数量的神经网络、创建两倍大小的神经网络。这将有助于开发更精确的模型和全新级别的高级应用。
Facebook 人工智能研究院工程总监 Serkan Piantino 指出:“开发更智能的机器需要精深的知识,而开启这些知识的关键则在于我们计算系统的功能。在过去几年里,机器学习与人工智能领域中的大多数重大进步一直取决于利用强大的 GPU 和大型数据集来打造和训练先进的模型。”
Tesla M40 GPU 的加入将有助于 Facebook 在机器学习研究工作中取得新的进步,让整个组织机构内的多个团队能够在各种各样的产品和服务中利用深度神经网络。
首个开源人工智能计算架构
Big Sur 标志着专为机器学习和人工智能 (AI) 研究工作而设计的计算系统首次被发布为一款开源解决方案。
Facebook 致力于公开开展人工智能研究工作并与整个社区分享自己的研究发现,该公司想要携手其合作伙伴通过开放计算项目 (Open Compute Project) 来使 Big Sur 技术规范实现开源化。这一独特的方式将让世界各地的人工智能研究人员可以更轻松地分享和改进技术,从而可通过利用 GPU 加速计算的威力在机器学习领域中实现未来的创新。
好文章,需要你的鼓励
Gartner预测,到2030年所有IT工作都将涉及AI技术的使用,这与目前81%的IT工作不使用AI形成鲜明对比。届时25%的IT工作将完全由机器人执行,75%由人类在AI辅助下完成。尽管AI将取代部分入门级IT职位,但Gartner认为不会出现大规模失业潮,目前仅1%的失业由AI造成。研究显示65%的公司在AI投资上亏损,而世界经济论坛预计AI到2030年创造的就业机会将比消除的多7800万个。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。
人工智能正从软件故事转向AI工厂基础,芯片、数据管道和网络协同工作形成数字化生产系统。这种新兴模式重新定义了性能衡量标准和跨行业价值创造方式。AI工厂将定制半导体、低延迟结构和大规模数据仪器整合为实时反馈循环,产生竞争优势。博通、英伟达和IBM正在引领这一转变,通过长期定制芯片合同和企业遥测技术,将传统体验转化为活跃的数字生态系统。
韩国成均馆大学研究团队开发了首个机器遗忘可视化评估系统Unlearning Comparator,解决了AI"选择性失忆"技术缺乏标准化评估的问题。系统通过直观界面帮助研究人员深入比较不同遗忘方法,并基于分析洞察开发出性能优异的引导遗忘新方法,为构建更负责任的AI系统提供重要工具支持。