10月24日,全球AI算力池化技术领导者趋动科技在“2022 长沙·中国1024 程序员节”上正式发布业内首个AI算力池化云服务——趋动云VirtAI Cloud,面向所有AI相关企业、科研院所和个人开发者,提供像“用水用电”一样便宜好用的AI算力基础架构服务。
趋动云VirtAI Cloud破解AI算力供给两大挑战
全球数字经济持续高速增长,带来了超大规模的计算需求,算力成为数字经济时代的关键生产力。而人工智能作为数字经济时代的重要基础设施、关键技术、先导产业以及赋能引擎,对AI算力的需求以远超摩尔定律的速度持续增长。
高速增长的AI算力市场主要面临成本和易用性两大挑战。企业和AI开发者获取AI算力的方式主要有自建算力和租用算力,无论哪种方式都会面临运营成本高、运维门槛高、资源利用率低等难题。而从技术角度来看,多种异构AI芯片、平台共存,也是限制企业灵活使用AI算力的巨大阻碍。
趋动云VirtAI Cloud(www.virtaicloud.com)以“连接算力·连接人”为使命,发挥趋动科技在AI算力池化领域的深厚积累,高性能、高效率、低成本地调度分布在全球的算力,就像电网连接各个发电厂。同时,借助趋动云提供的AI开发和训练管理平台功能大幅降低AI算法工程师的使用成本,为企业、科研和个人AI开发者提供按需使用的开发和训练服务。
便宜好用!趋动云让AI算力触手可得
趋动科技依托全球领先的 GPU 池化技术打造的趋动云VirtAI Cloud,为万千企业和AI开发者带来又便宜、又好用的AI算力池化云服务。
首先是便宜。趋动云VirtAI Cloud 运用全球领先的 OrionX GPU池化技术,实现GPU资源的高效管理和使用,显著提升GPU利用率。同时支持多种GPU算力规格,精准满足不同模型的算力需求,给用户提供更多选择。此外,灵活的按需付费模式可根据用户实际使用小时数进行计费,避免包月包年模式的算力浪费,最终打造了趋动云VirtAI Cloud极具竞争力的价格,显著降低用户成本。
经测算,完成相同精度的ResNet和Tacotron2模型训练,趋动云相较典型公有云的GPU算力,能为用户节省60%~70%的成本。
其次是好用。在AI算法开发流程的数据准备环节,针对用户AI数据量大,采集、下载和上传难等痛点,趋动云打造丰富的高质量开放数据,用户可直接“拎包入住”,同时提供强大的团队协作能力,实现“一人上传,团队使用”。在环境搭建环节,对于AI开发所需的大量底层系统运维及开发、训练环境管理混乱痛点,趋动云提供丰富的预配置环境镜像、免运维的平台化服务,帮助用户聚焦算法开发。对于算法研发环节的GPU算力闲置、成本浪费严重,团队协作(代码、数据、镜像分享)困难等痛点,趋动云通过对JupyterLab、VSCode等主流开发环境的支持,以及高效团队协作(代码、数据、镜像共享)能力,结合极具竞争力的GPU实例价格,兼顾高效率和低成本。
针对模型训练环节的分布式训练配置难题和模型训练管理复杂、评估繁琐、无法有效利用空闲时间等痛点,趋动云提供一键式、零门槛部署分布式训练,支持 TensorBoard实验结果可视化,以简化评估与分析,而平台化、结构化、流程化的算法研发管理,让AI开发更加高效准确。
此外,为了让用户用好趋动云,趋动科技以“人”为本,构建全球开发者和项目资源分享社区,通过丰富的算法资源、高质量数据集、高效的交流社区和大量经验证的预训练模型,帮助AI开发者快速实现最佳实践。
无论是个人开发者,还是企业、教育、科研机构等团队开发者,都能尽享趋动云VirtAI Cloud 的AI算力池化云服务。对于个人开发者,趋动云可节约算力使用成本;实现开发训练流程结构化管理,大幅提高模型开发效率;使用社区资源快速开始工作,大幅缩减工作预热实践。对于团队开发者,可以通过趋动云随时、随地接入算力;丰富的算力规格可满足不同算法模型的研发和训练需求;支持数据,镜像等生产资料的共享协作,提高团队协作效率,减少资源浪费。
趋动云1024限时注册有礼活动火热进行中,重磅福利来袭!扫描下方二维码,即可参与。活动期间,GPU算力低至¥0.49元/时。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。