作者:Google云计算引擎产品经理Chris Kleban和Ari Liberman
今天,我们将一次性宣布多条与云GPU相关的消息。首先,Google云端平台(GCP)的性能将随着NVIDIA P100 GPU测试版的公开发布获得进一步提升。第二,Google计算引擎现已普遍采用NVIDIA K80 GPU。第三,我们很高兴地宣布K80和P100 GPU均将推出阶梯使用折扣。
云GPU可以加快工作负载处理速度,包括机器学习训练和推理、地球物理数据处理、模拟、地震分析、分子建模、基因组学及更多高性能计算用例。
NVIDIA Tesla P100是前沿GPU技术。基于Pascal GPU架构,您可以通过减少实例来增加吞吐量,同时节省资金。与K80相比,P100 GPU可以让工作负载实现10倍提速。
与传统解决方案相比,云GPU在灵活性、性能和成本节约三方面做到了优化结合:
在今天的公告发布后,您已可以在全球四个地区部署NVIDIA Tesla P100和K80 GPU。现在,我们的所有GPU都支持阶梯使用折扣:在您使用我们的GPU运行持续的工作负载时,虚拟机的价格会自动降低(折扣最高30%)。享受这些折扣无需绑定服务商也无需预付最低费用保证金。
自推出GPU以来,我们已经看到用户从GPU提供的额外计算性能中获益。得到GPU加速的工作负载包括基因组学、计算金融,以及机器学习模型训练和推理等。我们的客户Shazam是在GCP上采用GPU的首批用户之一,他们采用GPU来为音乐识别服务提供支持。
“对于某些任务而言,用NVIDIA GPU代替传统CPU能获得成本效益和性能的提升。GPU与Shazam核心音乐识别工作负载的相性很好,我们由此将用户录制的音频片段与我们收录了4000多万首歌曲的目录相匹配。我们通过拍摄每首歌曲的音频签名,将其编译成自定义数据库格式并将其加载到GPU内存中。每当用户通过Shazams发现歌曲时,我们的算法就会使用GPU搜索该数据库,直到找到匹配项。每天成功匹配的次数超过2000万次。”—Shazam网站可靠性工程负责人
今天发布的云GPU公告让GCP又迈进了一步,由此成为所有硬件加速工作负载的理想选择。在NVIDIA P100 GPU加入后,我们将重点关注帮助您将新的用例带入生活。
好文章,需要你的鼓励
当前世界充满变数,IT领域除AI外鲜少受到关注。从气候变化到地缘政治紧张局势,IT在公众讨论中边缘化。这在技术变革关键时刻十分危险。CEO、高管和媒体对IT缺乏深度思考,普遍持"不坏就别谈"的态度。CIO需要重新获得利益相关者关注,克服对IT运营的冷漠和无知。技术文盲问题严重,大多数人从未构建过IT系统。IT行业需要重新赢得人心,大幅提升公众IT知识水平。
OpenAI团队的最新研究揭示了大语言模型产生幻觉的根本原因:AI就像面临难题的学生,宁愿猜测也不愿承认无知。研究发现,即使训练数据完全正确,统计学原理也会导致AI产生错误信息。更重要的是,现有评估体系惩罚不确定性表达,鼓励AI进行猜测。研究提出了显式置信度目标等解决方案,通过改革评估标准让AI学会诚实地说"不知道",为构建更可信的AI系统指明方向。
技术驱动的变革比以往更加频繁,但成功并不能得到保证。Gartner研究显示,只有五分之一的组织能够在75%或更多时间内从转型项目中获得预期收益。其余都是昂贵的失败。有效的变革管理能够提高技术采用率,服务于业务目标。变革管理不再是边缘活动或软技能,而是决定新举措是否能够创造商业价值的核心绩效学科。
字节跳动AI实验室提出"逆向工程推理"新范式,通过从优质作品反推思考过程的方式训练AI进行创意写作。该方法创建了包含2万个思考轨迹的DeepWriting-20K数据集,训练的DeepWriter-8B模型在多项写作评测中媲美GPT-4o等顶级商业模型,为AI在开放性创意任务上的应用开辟了新道路。