至顶网服务器频道 05月18日 新闻消息(文/刘新萍): 近年来人工智能开始真正进入了人们的生活,开始与各行业应用融合,并让原有的应用更高效、更智能。比如在在线教育行业,"小猿搜题"运用浪潮NF5568M4 GPU服务器将其线下模型训练时间提升5-6倍,让老师从重复性的试题解答中解放出来。
随着计算能力的提升和数据量的积累,近年来人工智能开始真正进入了人们的生活,开始与各行业应用融合,并让原有的应用更高效、更智能。有人甚至扬言,人工智能在不远的将来将会取代一部分人的工作。其实,目前来看,人工智能在现阶段的主要目标是把人们从重复性、可量化的工作中解放出来,类似于机器代替人手,只不过这次技术变革是将人脑从简单重复工作中释放。
小猿搜题,以人工智能方式升级在线教育模式
人工智能让机器也成为"老师"
就像目前教育行业也在越来越多的运用人工智能,比如在线教育App"小猿搜题",如果你有不会的题目,通过手机拍照上传,不论是印刷体还是手写体,都能被机器识别,并与后端的题库进行快速匹配,在短短数秒钟得出详细的解答。
要知道,原来每个老师最多也就对应几十、一百多点的学生,而现在在线教育所面向的手中又何止千万,已经远远超出老师人工解答的极限,因此"小猿搜题"这种人工智能+教育的形式,极大地解放了老师对于重复性问题的解答,同时也让学生们能够最快捷地得到最准确的解题思路。
机器已经可以轻松识别手写字体
让机器能够快速、准确的回答问题需要几步?首先,机器需要认字,不仅是汉字,还包括英文字母、英文单词、数学中常用的符号等;其次,机器在看到文字之后能够快速的识别、辨认,并将题目转化为可以被机器匹配的数据;最后将这部分数据与后台海量的数据库进行匹配,找到其中的完美匹配项,并将这个匹配项所对应的答案进行输出。从中可以看出,机器的认字和识别,正是人工智能应用中最常被用到的图像识别的一种,前者需要通过数以亿计的样本训练来创建相应的模型,而后者则是根据模型定义的特征识别出文字、符号。
由于每个人的手写习惯不同,识别手写体成为了图像预处理和切分之后首先要面临的挑战,通过大量的样本找到手写习惯的共同特征,如习惯向右倾斜着写或者中文之间没有空格等。更复杂的是数学题的识别,因为数学题目中有大量的复杂公式需要识别,比如根号、分式、上下标的各种组合。这不仅要进行正确的切分,还需要有合理的匹配识别。解决以上两个问题都需要用到深度学习,通过构建卷积神经网络或者递归神经网络,将大量的数据源通过神经网络法计算之后得到符合需求的模型,为最终的使用提供服务。
不论是创建何种神经网络,都需要对海量样本进行分析,因此对于后端服务器的计算压力极大。因此采用GPU等协处理计算设备来加速人工智能应用成为主流,在线下模型训练中通常会采用核数更多、并行计算能力更强的GPU服务器,而在线上推理应用中可以采用FPGA这种轻量级的计算加速设备。
浪潮NF5568M4 GPU服务器
由于手写字体差异极大,需要大量的模型训练任务,因此"小猿搜题"的技术团队选择浪潮NF5568M4 GPU服务器来加速业务的快速上线。浪潮NF5568M4采用Intel最新Haswell处理器与GPU加速计算技术的协同,CPU主要承担其更擅长的逻辑选择、判断跳转和IO通信方面的职责,而GPU则专职计算密集型、高度并行的计算工作,使得计算资源合理的分配,计算力被充分释放,计算性能达到从几倍到几十倍的增长。NF5568M4在4U空间内配备双路E5-2600v4CPU和4块GPU卡,单机最高单精度浮点计算能力可达每秒40万亿次,将能极大的提升"小猿搜题"海量样本的处理效率。
而在存储方面,GPU计算每天会产生大量的数据,所以存储空间需要保证单机10TB以上。但是由于这部分数据数据属于缓慢写入,并不需要太高的IO,所以采用大容量SATA硬盘来支持就足够满足。NF5568M4支持8块3.5寸硬盘,并通过配置高速的阵列卡,使计算集群拥有500MB/s左右的IO吞吐,足以满足"小猿搜题"线下模型训练应用需求。
通过合理的计算硬件选型,"小猿搜题"在线下模型训练时可以将训练时间提升5-6倍,而线上预测速度也得到2-4倍的提升,再经过语言模型的纠错,小猿搜题最终实现题目拍照之后"秒懂你的心"的效果。
目前,浪潮人工智能相关解决方案在国内主流AI领域的占有率超过80%,为百度、阿里巴巴、腾讯、奇虎、搜狗、科大讯飞、今日头条、Face++等领先企业提供基于GPU/FPGA/KNL等协处理加速服务器和caffe-MPI等软件、算法优化服务,加速中国人工智能应用的发展。
好文章,需要你的鼓励
甲骨文公司披露获得一份年价值超过300亿美元的云服务合同,消息传出后股价一度上涨近9%。该合同是甲骨文自4月1日2026财年开始以来赢得的多个大型云服务协议之一,预计从2028财年开始贡献超过300亿美元的年收入。虽然买方身份未公开,但最可能的候选者是OpenAI,两家公司正在合作建设AI数据中心网络项目Stargate。
国立台湾大学等机构开发的MuseControlLite技术实现了音乐AI的重大突破。该系统仅用8500万参数就达到61.1%的旋律控制精度,比现有方法减少6.75倍参数量却性能更优。通过创新的位置编码和解耦交叉注意力机制,系统能同时处理文字、音乐属性和音频信号的多重控制,支持音乐生成、修复和风格迁移等功能,为音乐创作民主化开辟新道路。
AI编程编辑器Cursor背后的公司Anysphere推出网页应用,用户可通过浏览器管理AI编程代理网络。该应用支持桌面和移动端,用户可用自然语言分配编程任务、监控代理工作进度并合并代码更改。Cursor年经常性收入已超5亿美元,被超半数财富500强企业使用。新应用面向Pro计划及更高级别订阅用户开放,旨在降低使用门槛。公司预计到2026年AI编程代理将承担软件工程师至少20%的工作。
马里兰大学研究团队在70亿参数的OLMoE模型中首次发现了真实大型语言模型的"Grokking"现象,即AI在训练误差稳定后仍能实现智能突破。他们开发了基于混合专家模型思维路径分析的新方法,能够在无需外部测试的情况下准确预测AI的泛化能力,为AI开发和评估提供了革命性的实时监控工具。