近日,国际数据公司(IDC)发布2020H1《全球人工智能市场半年度追踪报告》(《Worldwide Semiannual Artificial Intelligence Tracker》),报告显示,2020上半年全球人工智能服务器市场规模达到55.9亿美元,占人工智能基础设施市场的84.2%以上,成为AI基础设施的需求主体。目前,浪潮、戴尔、HPE分列全球AI服务器市场份额前三,其中浪潮以16.4%的市场占有率成为全球AI服务器的龙头玩家。IDC预计,未来人工智能服务器市场将持续保持高速增长,在2024年全球市场规模将达到251亿美元。
AI应用加速,公共AI算力成为74.5%企业刚需
过去一年,人工智能在行业的应用获得了快速发展,通用型应用场景已经具有相当的成熟度,在业务需求的推动下,具有高行业属性的碎片化应用也开始被广泛使用,并辐射到了媒体娱乐、现代农业、智能家居、智慧电力等多个不同领域。与2019年相比,疫情推动下的智慧医疗以及疫情常态下园区、办公楼宇、社区的生物识别类应用比预计发展得更快,尤其是制造和能源企业对于人工智能的采用。企业对具有公共基础设施属性的人工智能算力基础设施提出强烈需求,以降低创新成本,提升算力资源的可获得性。
通过IDC调研发现,超过九成的企业正在使用或计划在三年内使用人工智能,其中74.5%的企业期望在未来可以采用具备公用设施意义的人工智能专用基础设施平台。企业对于人工智能算力基础设施平台的TOP5需求分别是:用于人工智能训练的数据支撑、人工智能加速计算能力、配套的政策吸引、规模效应下的价格和成本因素,以及丰富的应用场景配置。
AI模型跑步进入万亿级时代,算力需求2月翻一番
人工智能是全球IT产业发展最快的新兴技术应用之一,人工智能应用对算力最大的挑战依然来自于核心数据中心的模型训练。近年来,算法模型的复杂度呈现指数级增长趋势,正在不断逼近算力的上限,由此带来的AI计算在整体计算市场占比正逐年提高。在人工智能发展的三要素中,无论是数据还是算法,都离不开算力的支撑。当下,先进模型的参数量和复杂程度正呈现指数级的增长趋势。OpenAI提出GPT-3模型,参数量超过1750亿,对算力的消耗达到3640 PetaFLOPS/s-day。而距离GPT-3问世不到一年,更大更复杂的语言模型,即超过一万亿参数的语言模型Switch Transformer即已问世。目前,人工智能所需算力每两个月即翻一倍,承载AI的新型算力基础设施的供给水平,将直接影响AI创新迭代及产业AI应用落地。
中国AI算力高速增长,占比全球AI算力三成
据IDC与浪潮联合发布的《2020-2021中国人工智能计算力发展评估报告》,中国人工智能服务器已经成为全球人工智能产业发展的中坚力量,未来将占全球人工智能服务器市场的三分之一左右,是全球人工智能产业发展的中坚力量。人工智能服务器的投资能够为人工智能应用的落地提供核心的算力保障,对于未来国家计算力指数的提高具有极大的推动作用。
浪潮作为全球领先的AI算力基础设施供应商,目前已经连续三年保持中国市场份额50%以上。面向高速增长的AI算力需求,浪潮打造了性能最强、布局最全的AI计算产品阵列,涵盖训练、推理、边缘等全栈AI场景。浪潮AI计算平台全面支持GPU、FPGA、ASIC等各类AI计算芯片,并率先推出符合OAM标准的AI计算开放加速系统MX1, 通过多元开放的AI服务器架构为人工智能发展提供更高的性能和可扩展性的AI算力支撑,以敏捷高效的人工智能基础设施驱动智慧时代的变革发展。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。