近日,国际数据公司(IDC)发布2020H1《全球人工智能市场半年度追踪报告》(《Worldwide Semiannual Artificial Intelligence Tracker》),报告显示,2020上半年全球人工智能服务器市场规模达到55.9亿美元,占人工智能基础设施市场的84.2%以上,成为AI基础设施的需求主体。目前,浪潮、戴尔、HPE分列全球AI服务器市场份额前三,其中浪潮以16.4%的市场占有率成为全球AI服务器的龙头玩家。IDC预计,未来人工智能服务器市场将持续保持高速增长,在2024年全球市场规模将达到251亿美元。
AI应用加速,公共AI算力成为74.5%企业刚需
过去一年,人工智能在行业的应用获得了快速发展,通用型应用场景已经具有相当的成熟度,在业务需求的推动下,具有高行业属性的碎片化应用也开始被广泛使用,并辐射到了媒体娱乐、现代农业、智能家居、智慧电力等多个不同领域。与2019年相比,疫情推动下的智慧医疗以及疫情常态下园区、办公楼宇、社区的生物识别类应用比预计发展得更快,尤其是制造和能源企业对于人工智能的采用。企业对具有公共基础设施属性的人工智能算力基础设施提出强烈需求,以降低创新成本,提升算力资源的可获得性。
通过IDC调研发现,超过九成的企业正在使用或计划在三年内使用人工智能,其中74.5%的企业期望在未来可以采用具备公用设施意义的人工智能专用基础设施平台。企业对于人工智能算力基础设施平台的TOP5需求分别是:用于人工智能训练的数据支撑、人工智能加速计算能力、配套的政策吸引、规模效应下的价格和成本因素,以及丰富的应用场景配置。
AI模型跑步进入万亿级时代,算力需求2月翻一番
人工智能是全球IT产业发展最快的新兴技术应用之一,人工智能应用对算力最大的挑战依然来自于核心数据中心的模型训练。近年来,算法模型的复杂度呈现指数级增长趋势,正在不断逼近算力的上限,由此带来的AI计算在整体计算市场占比正逐年提高。在人工智能发展的三要素中,无论是数据还是算法,都离不开算力的支撑。当下,先进模型的参数量和复杂程度正呈现指数级的增长趋势。OpenAI提出GPT-3模型,参数量超过1750亿,对算力的消耗达到3640 PetaFLOPS/s-day。而距离GPT-3问世不到一年,更大更复杂的语言模型,即超过一万亿参数的语言模型Switch Transformer即已问世。目前,人工智能所需算力每两个月即翻一倍,承载AI的新型算力基础设施的供给水平,将直接影响AI创新迭代及产业AI应用落地。
中国AI算力高速增长,占比全球AI算力三成
据IDC与浪潮联合发布的《2020-2021中国人工智能计算力发展评估报告》,中国人工智能服务器已经成为全球人工智能产业发展的中坚力量,未来将占全球人工智能服务器市场的三分之一左右,是全球人工智能产业发展的中坚力量。人工智能服务器的投资能够为人工智能应用的落地提供核心的算力保障,对于未来国家计算力指数的提高具有极大的推动作用。
浪潮作为全球领先的AI算力基础设施供应商,目前已经连续三年保持中国市场份额50%以上。面向高速增长的AI算力需求,浪潮打造了性能最强、布局最全的AI计算产品阵列,涵盖训练、推理、边缘等全栈AI场景。浪潮AI计算平台全面支持GPU、FPGA、ASIC等各类AI计算芯片,并率先推出符合OAM标准的AI计算开放加速系统MX1, 通过多元开放的AI服务器架构为人工智能发展提供更高的性能和可扩展性的AI算力支撑,以敏捷高效的人工智能基础设施驱动智慧时代的变革发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。