在上海市某医院的就诊大厅里,市民王女士在工作人员的指导下打开了医院最新推出的支付宝“AI陪诊师”服务界面,在“AI陪诊师”的全流程规划指引下,王女士顺利地完成了院内导航、排队叫号、扫码支付、报告查询等一系列就医行为。对此,王女士感慨道,“这个数字小人真神了!不管我对它提出什么样的问题,它总能对答如流,有了它,看病变得容易多了!”
近年来,人工智能(简称AI)在政策支持、技术迭代与应用创新等方面取得了显著进展,不仅是在医疗卫生领域,人工智能还正加快与各垂直行业深度融合的步伐。在8月28日到30日举办的2024中国国际大数据产业博览会(以下简称数博会)上,AI“黑科技”的含量极高,从冲泡咖啡的自动化机器人,到虚拟仿真的AIGC智影奇境,再到自动驾驶的重型卡车与挥动机械臂的挖掘机器人,都展示出了AI的广阔应用空间。
正因如此,国内领先企业纷纷加大了AI领域布局投入,积极抢占产业发展制高点。在此背景下,浪潮计算机积极布局AI版图,为人工智能提供算法、算力与数据的核心底座支持。
今年5月,浪潮计算机推出了专为生成式AI、音视频编解码、科学计算等应用场景而设计的4U人工智能服务器——NF5468H7,该服务器具备卓越多元算力性能、极致弹性架构扩展、多场景灵活适用等特性,为关键信息基础设施行业的AI应用打造强大且安全的算力“心脏”。凭借着强大的数据运算能力与丰富的场景适配能力,NF5468H7也被评为2024数博会“优秀科技成果”。
服务器NF5468H7
今年7月,浪潮计算机研发团队先后推出了创新技术AI服务器产品——CS5280K2、CS8468K2、NF5698H7,为千行百业的数智变革提供了多元开放的算力保障。这些服务器产品兼容适配国内最新多类型、多品牌AI加速卡,满足各种AI应用场景下对异构计算算力的极致需求。浪潮计算机在短时间内多款AI服务器产品的推出,不但展示了研发团队在AI领域的研发实力,更彰显出浪潮计算机在“人工智能+”领域的行动决心。
目前,浪潮计算机的AI服务器产品已为多个行业提供了可靠算力支持。在金融行业,AI服务器基于自身算力优势及广泛的开源大模型生态优势,有力地支撑客户大模型的测试验证和部署。与此同时,AI服务器还帮助客户实现了大模型平台的高质量、个性化的语音内容生成,大幅提升了客户的服务效率与用户体验感。
在能源行业,浪潮计算机AI服务器所支持的能源大模型,在能源生产、输配电网管理、能源消费优化等方面起到了关键作用。如在电力能源方面,AI服务器不仅能够实时监测电网运行状态、预测负荷需求,还能及时响应异常情况,提高了电网运行的可靠性和稳定性。与此同时,AI服务器还可以基于用户能源消费数据进行深度学习和预测分析,为用户提供个性化的节能建议,提高能源利用效率,推动绿色能源发展。
浪潮计算机AI服务器还将进一步发挥自身在深度学习与生产式AI的性能和生态优势,在党政、教育、互联网以及其他关基行业的智算中心建设浪潮中,聚焦大模型推理和微调以及其他并行算力领域,为政府智能决策辅助系统、高校科研智算中心、教育数据分析与学生行为预测系统的建设提供算力保障。
浪潮计算机相关负责人表示,数字经济是加快培育新质生产力的关键领域和重要引擎,而人工智能技术正是数字经济发展的核心驱动力。未来,浪潮计算机将在国家政策的引领下,继续加大AI领域的研发投入,探索“人工智能+创新技术”的更多可能性,以持续训练、不断迭代的AI算力,为数字技术和实体经济深度融合贡献力量,助力多行业多场景的数智化发展。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。