Nvidia日前开始禁止在数据中心使用GeForce和Titan游戏显卡,从而迫使一众机构购买昂贵的设备,比如最新的Tesla V100芯片。
芯片设计巨头Nvidia前几天更新了旗下的GeForce和Titan软件许可,新条款含:“不可部署在数据中心。该软件许可不含数据中心部署,在数据中心的区块链处理使用除外。”
换句话说,如果你想在一个服务器机箱里整一堆GeForce GPU,并用其来加速用了很多数学的软件(比如机器学习、模拟和分析等),呃……那就违反了与Nvidia之间许可协议,除非你正在做与流行的区块链相关的东西。
说得准确一点,有争议的最终用户许可协议(EULA)条款涵盖的是NVIDIA GeForce GTX和Titan显卡的驱动程序。不过,没有Nvidia的专有驱动程序,硬件的全部潜力就不能释放出来,所以,用户是逃不出NVIDIA的手心的。
数据中心禁用GTX和Titan不仅仅对想打造自己的服务器和数据中心的人是一个打击,也是对计算机制造商(如HPE或戴尔)的一个打击,这些计算机制造商希望使用GTX或Titan硬件运行GPU加速服务器,如果能用GTX或Titan就会比昂贵的DGX系列GPU加速服务器的Nvidia收费便宜得多。来自Nvidia、配备了Tesla V100芯片的DGX-1售价约为15万美元。 使用GeForce或Titan的盒子的价格要低得多,尽管处理能力也要小得多。
高端的GeForce GTX 1080 Ti显卡(针对的是游戏玩家而不是深度学习数据科学家)使用的是Nv的Pascal架构,售价仅为699美元。而数据中心最新用到的Tesla V100卡的花费超过9000美元。
64位双精度浮点数学计算方面,V100绝杀1080 Ti:V100拥有大约7TFLOPS,而GeForce的表亲只有0.355 TFLOPS。同样,V100在使用32位单精度浮点运算和16位半精度浮点运算的视频游戏方面也十分了得。顶级的GeForce Titan Xp同样由V100统领。
一位支持学术医学研究机构的高级技术人员注意到了许可证的变化并通知了笔者,他表示,做研究的人不一定需要强大的Tesla,玩家级别图形处理器有时已经足够了,最终取决于所做的工作类型和可用预算。
他告诉笔者,“这可能会对那些使用成本较低的GPU处理数据的研究机构产生巨大的影响。”
他表示,“这些数据的大部分实际上并不需要双精度Tesla卡。但现在突然以这种不太正大光明的方式给他们的产品带来限制,有点令人震惊。实际上,大多数地方都会很开心地认可在服务器中使用消费产品可能会令保修单失效,但现在却以这样的方式限制,令研究人员受到可能的法律威胁,坦率地说,颇为令人不快。“
Nvidia一位发言人告诉记者,许可证的调整是为了阻止GeForce和Titan芯片在“要求苛刻的大型企业环境中”被“滥用”。换句话说,Nv认为游戏卡不适合闷热、拥挤、有需求和资金充足的服务器仓库。该发言人表示:
GeForce和TITAN GPU设计的目标从来不是用于数据中心部署,数据中心部署要用到全天候运行的复杂硬件、软件及有散热方面的需求,运作时通常使用多堆栈机架。为了清楚地表明这一点,我们最近在GeForce专用EULA中增加了一项规定,目的是防止在苛刻的大规模企业环境中滥用我们的GeForce和TITAN产品。
NVIDIA利用我们的Tesla产品解决了服务器对这些独特的机械、物理、管理、功能、可靠性和可用性的需求,包括三年的质保,涵盖数据中心工作负载、NVIDIA企业级支持、供货连续性保证以及数据中心组件更长的SKU预期寿命。自Tesla产品首次发布以来,这些信息已经传达给了市场。
如果有人在数据中心安装游戏级图形处理器违反许可证的话,Nvidia会不会采取法律行动呢? Nvidia声称不打算禁止非商业用途和研究。
总部设在美国加州的芯片架构设计商Nvidia发言人表示,“我们知道研究人员经常将GeForce和TITAN产品用于非商业用途或其他研究用途,其规模不属于数据中心运作。 NVIDIA不打算禁止这一类用途。”
我们曾要求Nvidia澄清数据中心的定义是什么,发言人承认“数据中心有很多种类”。
该发言人表示,“数据中心与用于公司和学术研究项目的个人电脑和小型局域网相比之下,数据中心通常是大规模部署,通常置于多服务器机架之中,会为许多用户提供对长久在线的GPU访问。”
目前看来,如果Nvidia发现有人违反许可证规则,Nvidia就会对其发出严厉警告及要求这些人掏出支票本,不然的话……。
该发言人称,“只要我们发现我们的驱动程序的实际使用或建议使用与EULA相违背,NVIDIA就会采取措施,我们会与用户一起了解每个未经许可使用的原因,我们会努力评估个案,看看如何才能在不影响我们的硬件和软件性能和可靠性标准的情况下最好地满足用户的需求。”
发言人表示,“用户使用GeForce或者TITAN驱动程序时,只要方式上可能未被授权,他们都应该联系NVIDIA的企业销售部门,对这些具体的使用和潜在的选择进行讨论。我们希望能与我们的用户群一起讨论每个具体的使用案例,我们希望能够解决客户的任何疑虑。”
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。