NVIDIA宣布从即日起至2015年12月31日,针对现有NVIDIA GRID™ K1/K2的客户推出“1美元特价风暴”特惠计划。该计划将以每个许可证1美元的价格向现有的GRID K1/K2用户限时提供GRID 2.0 CCU许可证,特价许可证的数量上限为4颗Tesla M6或2颗Tesla M60 GPU所支持的CCU最大数量。
NVIDIA GRID 2.0能够在企业工作流程中为虚拟化图形提供前所未有的性能、效率以及灵活性。员工能够在几乎任何地方毫无延迟地下载文件、开展工作,因此其生产率能够得到提升。IT 部门可以让工作人员即时使用功能强大的应用,从而能够改善资源的分配。同时数据保存在中央服务器内,而非个人系统中,因此可以更安全地存储数据。
NVIDIA GRID 2.0自8月底推出以来已收到来自诸多企业客户的高度评价,希望通过此次特惠活动,能够帮助更多的客户完成升级,享受到GRID 2.0带来的前所未有的虚拟化图形体验,为企业的虚拟化部署带来更高的效率和灵活性。
具体的流程与规则如下:
1. 正在使用 NVIDIA GRID K1或K2的用户可参加1美元特价风暴推广活动。
2. 最终用户可向自己所青睐的OEM厂商或解决方案供应商询求报价,报价内容需要包括所需GRID解决方案的版本( NVIDIA GRID Virtual PC版、GRID Workstation版或 GRID Workstation Extended 版)及CCU许可证数量;以及与CCU数量一致的支持、更新与维护付费服务 (SUM)。
用户最多可以购买64个Virtual PC版、16个Workstation版或4个Workstation Extended版CCU许可证或上述许可证的组合,特价许可证的数量上限为 4 颗 Tesla M6或2颗Tesla M60 GPU所支持的CCU最大数量。
用户在询求报价时需注明参与 “NVIDIA GRID --- 1美元特价风暴活动”。
3. OEM厂商或解决方案供应商需要将用户订单详情通过电子邮件方式发送给NVIDIA销售中心 (NSC) 的Helen Guo并说明需要申请的特价CCU许可证数量。NSC电子邮件地址为 nsc-china@nvidia.com。
4. NVIDIA会就符合条件的GRID CCU许可证数量向英迈中国(Ingram Micro)提供特价授权。一旦获得NVIDIA的批准,每个许可证1美元的特价只在通过英迈中国(Ingram Micro)进行订购之时适用。
a. 与所购买的特价CCU数量一致的支持、更新与维护付费服务 (SUM) 需要以标准价格购买。
b. 超过特价CCU数量上限的额外许可证需要以标准价格购买。
5. 产品激活码和NVIDIA许可门户网站的许可证下载说明将通过电子邮件方式发送到指定邮箱。
符合条件的产品
条款细则说明
1. 从即日起到2015年12月31日,现有的NVIDIA GRID K1和K2用户均可参加推广活动。NVIDIA保留核实现有GRID K1或K2用户的权利。
2. 仅在推广时间段内,购买时可享受CCU许可证之1美元特价。之前购买许可证的客户无法享受该价格,推广特价不适用于以往的购买情形。
3. 每位最终用户仅限一个订单。所有的推广特价许可证必须在同一个订单内购买。
4. 1 美元特价许可证的数量上限取决于4颗Tesla M6或2颗Tesla M60 GPU所支持的 Virtual PC版、Workstation版或Workstation Extended版CCU许可证的组合。
5. SUM 产品的数量应与CCU许可证购买数量相等且需以标准价格购买 。
6. 本次优惠不得与其它推广优惠或特价同时享受。
7. NVIDIA保留随时更改或取消这一推广活动的权利。
NVIDIA GRID 2.0新特性
两倍用户密度——NVIDIA GRID 2.0可令用户密度比去年推出的上一版本翻一番,每台服务器最多支持 128 名用户。这让企业能够更具性价比地进行扩展、使服务覆盖到更多员工,同时做到每名用户的成本更低。
两倍应用性能——利用屡获殊荣的最新版本 NVIDIA Maxwell™ GPU 架构,NVIDIA GRID 2.0 可提供双倍的应用性能,比许多本地客户机的性能更高。
新增支持刀片式服务器——企业现在可以在一线刀片式服务器厂商的刀片式服务器(不仅仅是机架式服务器)上运行基于 GRID 的虚拟桌面。GRID现可在125款服务器机型上运行。
新增支持Linux——不再仅限于 Windows 操作系统,NVIDIA GRID 2.0 现在让那些依赖 Linux 应用和工作流程的业界企业能够利用图形加速的虚拟化。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。