AWS EC2 G4实例采用高效的Turing架构处理器,可部署加速超大规模AI推理、云游戏和最新RTX图形应用。
随着NVIDIA T4 Tensor Core GPU已陆续在北美、欧洲和亚洲地区AWS上线,云端用户现可享用多重功能,包括自动化与人性化兼得的客户服务、在任何互联设备端均能体验到的专业工作站性能以及电影级画质的PC游戏。
NVIDIA T4 GPU由一系列软件堆栈提供支持,为G4实例用户带来其所需性能及多种功能,并提升了效率。
NVIDIA的软件平台针对多种应用进行了优化,包括用于深度学习的NVIDIA cuDNN、用于数据分析及机器学习的NVIDIA RAPIDS 、用于云工作站图形的NVIDIA Quadro虚拟工作站、以及用于云游戏的NVIDIA GeForce。软件堆栈还包含了多种API、CUDA以及适用于特定领域的CUDA-X库,例如TensorRT、NCCL、OptiX和视频编解码SDK。
只需一个实例,AWS用户就能够无缝、高效地加速各类创作型工作负载。
AWS计算服务副总裁Matt Garman表示:“在利用计算密集型应用时,客户会面对各类棘手的挑战,而我们专注于解决这些挑战。AWS提供最全面的产品组合,帮助客户构建、训练并部署机器学习模型。Amazon EC2提供多种经过优化、适用于不同机器学习案例的实例类型以供用户选择。对于开发者而言,部署了T4 GPU的全新G4实例的出现,不仅让机器学习变得触手可及,也让其变得更加经济实惠。”
NVIDIA T4是第二代Tensor Core GPU,可谓GPU的华丽升级,它让AI应用能够实现最高性能,同时还能保持CUDA的可编程性。
图像分类、对象检测、自然语言理解、自动语音识别和推荐系统等AI应用的创新性、多样性和复杂性不断提升。NVIDIA T4凭借高达130TOPS的INT8性能,提供加速这些应用所需的混合精度张量处理功能。
亚马逊是业界率先针对训练和推理为NVIDIA GPU提供即用NVIDIA NGC容器支持的超大规模供应商之一。EC2 P3实例采用NVIDIA V100 Tensor Core GPU,让客户能够使用自动混合精度功能,将机器学习训练耗时从数天减少至数小时。借助EC2 G4,客户能够大规模部署AI服务,同时大幅降低运营成本。
根据NVIDIA在VMWorld期间发布的消息,VMware Cloud on AWS用户将会很快获得全新的高度可扩展的、安全的全新云服务(其中包括Amazon EC2裸机实例),该服务可通过NVIDIA T4 GPU和全新NVIDIA虚拟计算服务器(vComputeServer)软件进行加速。
使用这一企业级混合云平台,企业能够加速应用的现代化进程。从数据中心到AWS云,他们都能够基于一致的VMware基础架构来实现部署、迁移和运营的统一,以支持计算密集型工作负载,包括AI、机器学习和数据分析。
实时光线追踪是计算机图形学领域梦寐以求的技术,可实现栩栩如生的场景。借助逼真的实时渲染、AI增强型图形以及视频和图像处理,设计师和艺术家将使用全新方式开展内容创建。
NVIDIA T4是首款可用于云端的NVIDIA RTX光线追踪GPU。T4 GPU采用RT Core,这一专用型计算资源将告别过去昂贵的光线追踪方法,以非凡的效率实施光线追踪操作。
全新G4实例与NVIDIA Quadro 虚拟工作站(Quadro vWS)Amazon Machine Images相结合,支持最新光线追踪API,包括Microsoft DXR、NVIDIA Optix和Vulkan。传媒娱乐、建筑、制造、以及石油和天然气等行业的技术和创意专业人士可以在AWS云端运行最新图形软件应用。
有了AWS,只需不到5分钟就能部署虚拟工作站,简单快捷。用户可访问AWS Marketplace并选择NVIDIA Quadro vWS机器映像和G4实例,后者在Windows Server 2016和Windows Server 2019上可用。
T4采用的Turing架构也将NVIDIA在游戏领域的实力带到了AWS。该GPU的硬件编码器引擎可通过视频编解码SDK进行编程,使得要求最为严苛的游戏也能使用其进行渲染和流式传输。
游戏发行商可基于最新NVIDIA技术来构建自己的云游戏实例,而且几乎可以在任何设备端向玩家提供完整的PC游戏目录。
玩家可在高分辨率下以快速、流畅的帧速率尽享所有最新游戏的乐趣,而无需担心硬件升级或驱动程序、游戏补丁的更新。
支持此功能的NVIDIA驱动程序可通过AWS Marketplace获取,并可在Windows Server 2016、Windows Server 2019和Linux OS操作系统中的AWS G4实例上运行。
首批采用Amazon EC2 G4实例的客户包括Clarifai、Electronic Arts、GumGum和PurWeb,他们利用NVIDIA T4的全能算力和性能,能够大规模运行各类计算密集型工作负载。这几家公司都能够为客户提供强大的服务,同时降低客户的服务构建和部署成本。
未来几周内,G4实例还将支持Amazon Elastic Inference,用户可在Amazon EC2或Amazon SageMaker实例中添加GPU加速,以更低的成本实现更快速的推理,最高可节省75%的成本。
好文章,需要你的鼓励
随着大语言模型在人工智能时代展现强大力量,可穿戴设备成为收集人体数据的重要载体。通过实时监测血压、心率、血糖等生命体征,结合AI边缘计算能力,医疗正向个性化转型。基因治疗、数字孪生技术让每个人都能拥有专属的医疗数字化身,实现从"报销型医疗"向"创新循证医疗"的转变,为疾病预防和健康管理带来革命性突破。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
在巴黎举办的欧洲开放基础设施峰会期间,专门用一整天时间讨论VMware迁移问题。博通收购VMware后许可证价格上涨,导致客户运营成本大幅增加。开源开发者展示了将VMware虚拟机迁移到开源替代方案的产品。Forrester分析师指出VMware客户对此感到信任破裂。OpenStack等开源解决方案虽然复杂度较高,但提供了健康的开源生态系统替代方案。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。