AWS EC2 G4实例采用高效的Turing架构处理器,可部署加速超大规模AI推理、云游戏和最新RTX图形应用。
随着NVIDIA T4 Tensor Core GPU已陆续在北美、欧洲和亚洲地区AWS上线,云端用户现可享用多重功能,包括自动化与人性化兼得的客户服务、在任何互联设备端均能体验到的专业工作站性能以及电影级画质的PC游戏。
NVIDIA T4 GPU由一系列软件堆栈提供支持,为G4实例用户带来其所需性能及多种功能,并提升了效率。
NVIDIA的软件平台针对多种应用进行了优化,包括用于深度学习的NVIDIA cuDNN、用于数据分析及机器学习的NVIDIA RAPIDS 、用于云工作站图形的NVIDIA Quadro虚拟工作站、以及用于云游戏的NVIDIA GeForce。软件堆栈还包含了多种API、CUDA以及适用于特定领域的CUDA-X库,例如TensorRT、NCCL、OptiX和视频编解码SDK。
只需一个实例,AWS用户就能够无缝、高效地加速各类创作型工作负载。
AWS计算服务副总裁Matt Garman表示:“在利用计算密集型应用时,客户会面对各类棘手的挑战,而我们专注于解决这些挑战。AWS提供最全面的产品组合,帮助客户构建、训练并部署机器学习模型。Amazon EC2提供多种经过优化、适用于不同机器学习案例的实例类型以供用户选择。对于开发者而言,部署了T4 GPU的全新G4实例的出现,不仅让机器学习变得触手可及,也让其变得更加经济实惠。”
NVIDIA T4是第二代Tensor Core GPU,可谓GPU的华丽升级,它让AI应用能够实现最高性能,同时还能保持CUDA的可编程性。
图像分类、对象检测、自然语言理解、自动语音识别和推荐系统等AI应用的创新性、多样性和复杂性不断提升。NVIDIA T4凭借高达130TOPS的INT8性能,提供加速这些应用所需的混合精度张量处理功能。
亚马逊是业界率先针对训练和推理为NVIDIA GPU提供即用NVIDIA NGC容器支持的超大规模供应商之一。EC2 P3实例采用NVIDIA V100 Tensor Core GPU,让客户能够使用自动混合精度功能,将机器学习训练耗时从数天减少至数小时。借助EC2 G4,客户能够大规模部署AI服务,同时大幅降低运营成本。
根据NVIDIA在VMWorld期间发布的消息,VMware Cloud on AWS用户将会很快获得全新的高度可扩展的、安全的全新云服务(其中包括Amazon EC2裸机实例),该服务可通过NVIDIA T4 GPU和全新NVIDIA虚拟计算服务器(vComputeServer)软件进行加速。
使用这一企业级混合云平台,企业能够加速应用的现代化进程。从数据中心到AWS云,他们都能够基于一致的VMware基础架构来实现部署、迁移和运营的统一,以支持计算密集型工作负载,包括AI、机器学习和数据分析。
实时光线追踪是计算机图形学领域梦寐以求的技术,可实现栩栩如生的场景。借助逼真的实时渲染、AI增强型图形以及视频和图像处理,设计师和艺术家将使用全新方式开展内容创建。
NVIDIA T4是首款可用于云端的NVIDIA RTX光线追踪GPU。T4 GPU采用RT Core,这一专用型计算资源将告别过去昂贵的光线追踪方法,以非凡的效率实施光线追踪操作。
全新G4实例与NVIDIA Quadro 虚拟工作站(Quadro vWS)Amazon Machine Images相结合,支持最新光线追踪API,包括Microsoft DXR、NVIDIA Optix和Vulkan。传媒娱乐、建筑、制造、以及石油和天然气等行业的技术和创意专业人士可以在AWS云端运行最新图形软件应用。
有了AWS,只需不到5分钟就能部署虚拟工作站,简单快捷。用户可访问AWS Marketplace并选择NVIDIA Quadro vWS机器映像和G4实例,后者在Windows Server 2016和Windows Server 2019上可用。
T4采用的Turing架构也将NVIDIA在游戏领域的实力带到了AWS。该GPU的硬件编码器引擎可通过视频编解码SDK进行编程,使得要求最为严苛的游戏也能使用其进行渲染和流式传输。
游戏发行商可基于最新NVIDIA技术来构建自己的云游戏实例,而且几乎可以在任何设备端向玩家提供完整的PC游戏目录。
玩家可在高分辨率下以快速、流畅的帧速率尽享所有最新游戏的乐趣,而无需担心硬件升级或驱动程序、游戏补丁的更新。
支持此功能的NVIDIA驱动程序可通过AWS Marketplace获取,并可在Windows Server 2016、Windows Server 2019和Linux OS操作系统中的AWS G4实例上运行。
首批采用Amazon EC2 G4实例的客户包括Clarifai、Electronic Arts、GumGum和PurWeb,他们利用NVIDIA T4的全能算力和性能,能够大规模运行各类计算密集型工作负载。这几家公司都能够为客户提供强大的服务,同时降低客户的服务构建和部署成本。
未来几周内,G4实例还将支持Amazon Elastic Inference,用户可在Amazon EC2或Amazon SageMaker实例中添加GPU加速,以更低的成本实现更快速的推理,最高可节省75%的成本。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。