10月23-25日,由湖南湘江新区管委会指导,长沙工业与信息化局、长沙信息产业园管委会、CSDN联合主办的“2022 长沙·中国1024 程序员节”即将在线上隆重开启。本届大会聚焦"算力新时代·开源创未来"主题,全球AI算力池化技术领导者趋动科技将在主会环节正式发布业内首个AI算力池化云服务——趋动云VirtAI Cloud(https://www.virtaicloud.com/)。
数字时代 AI算力面临成本困局
全球数字经济持续高速增长,带来了超大规模的计算需求,算力如同农业时代的水利、工业时代的电力,成为数字经济时代的关键生产力。其中,人工智能作为未来经济的代表,也极大地激发了产业智能化的生命力,并直接转化成为实际的生产力,在智慧城市、智能制造、智慧交通、智慧医疗、智慧教育等多个行业领域展现出了巨大的能量。
AI算力反映了一个国家的先进计算能力,中国AI算力发展水平快速提升。根据IDC最新发布的《中国加速计算市场(2021年下半年)跟踪报告》,2021年全年,中国AI服务器市场规模同比增长68.6%。与此同时,超过九成的企业正在使用或计划在未来三年内使用人工智能,74.5%的企业期望在未来可以采用具备公用设施意义的人工智能公共算力基础设施。
AI算力供需市场高速发展,在基础理论、计算芯片/系统、算法模型/编程框架、行业赋能解决方案等方面均取得了长足的进步,但在AI算力的供给方面仍存在着巨大的成本和资源利用率挑战。
当前企业获取AI算力的方式主要有自建算力和租用算力。无论是自建还是租用AI算力都不能完全满足企业的AI算力需求。自建算力主要面临初次采购成本高、后续管理成本高,对企业自身的技术要求高等难题,而且受算力需求潮汐效应的影响,资源利用率和弹性伸缩能力都较低。租用算力虽然初次采购成本低,按需灵活,但使用过程中算力单价高,同时整体资源利用率低,企业长期投入成本同样居高不下。
趋动云——便宜 好用的AI算力池化云
IDC数据显示,以GPU为代表的加速卡拥有更多计算单元,更适合AI计算。也正因为此,加速服务器市场中GPU服务器占据 90%以上的市场份额。因此,解决了GPU算力池化,也就很大程度上解决了当前AI算力使用成本高和资源利用率低的难题。在AI算力和用户需求之间存在着一道巨大的鸿沟,而“填平”这道鸿沟的关键是GPU算力池化。
趋动科技即将正式发布的业内首个AI算力池化云服务——趋动云VirtAI Cloud,依托趋动科技在算力资源池化和开发训练平台领域的深厚积累,通过软件定义算力,颠覆原有的AI应用直接绑定和调用物理算力资源的传统架构,将AI应用与物理算力资源解耦合,在近乎为零的性能损耗下,实现数据中心级的算力资源池化管理和弹性调度,显著提升整个资源池的利用率和管理灵活度。
趋动云VirtAI Cloud以“连接算力·连接人”为使命,面向所有AI相关企业、科研院所和个人开发者构建人工智能开发和训练服务,为用户提供像“用水用电”一样方便的AI算力基础架构服务,同时又具有便宜高效的性价比优势,即使轻量级开发团队也能轻松实现AI应用的敏捷开发和迭代,让具有更低成本,更高效供给方式的AI算力资源为企业AI应用赋能、加速。
欢迎访问2022 长沙 · 中国 1024 程序员节趋动科技线上展区,更多趋动云VirtAI Cloud黑科技等你来!
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。