引言:“AI+教育”已经成为了教育行业的下一个风口,只有利用技术革新突破人工智能教育目前所面对的阻碍,才有机会成为这个行业中的魁首。并将人工智能技术与教育更加紧密的融合,提高效率,为整个行业灌入“新血”,从而探索出全新的AI教育形态和模式。
6月28日,“人工智能人才培养体系研讨会”在重庆英特尔®FPGA中国创新中心盛大召开。此次研讨会汇聚了诸多教育行业翘楚,重庆市科技局合作处领导陆源先生,重庆大学国家高层次人才特殊支持计划领军人才、高性能集成电路重庆市工程实验室主任曾孝平老师,英特尔®FPGA中国创新中心总经理张瑞先生,海云捷迅科技有限公司CEO张征宇先生,以及还有来自各高校的老师、行业专家,共同针对人工智能应用型人才培养体系进行探讨与实践分享。
人工智能人才培养体系研讨会旨在助力人才培养,弥补人工智能人才的缺口。会议中,各行业大咖均以不同的视角对人才培养分享了独特的见解,人工智能在教育领域的技术趋势,及相关人才培养的具体解决方案等。
海云捷迅在此次研讨会中发布了“AI·Go|智迅”人工智能实验室解决方案,正是促进人工智能教育成长的一次全新尝试。AI·Go|智迅将面向学校、教师、学生,满足人工智能教学所需场景,帮助学生从AI理论学习到实践结果验证,更好地掌握人工智能领域知识,为高校人工智能学科建设起到推动作用。
此解决方案是由智能终端平台、人工智能实验平台和人工智能一体机三部分组成。基于虚拟化、容器、硬件超融、异构计算、边缘计算等技术打造,集成教学平台、人工智能+课程资源、实训项目和课外资源,为高校的人工智能专业的教学、新技术培训、创新人才培养而服务。
海云捷迅科技有限公司副总裁田亮
研讨会中,海云捷迅科技有限公司副总裁田亮以“AI·Go|智迅——异构智能计算平台助力高校AI人才培养”为主题为在场嘉宾进行讲解,并现场展示智能硬件的实际应用与操作流程。田亮从AI·Go|智迅的总体架构、平台特点、到实验平台、课程等都给予了详尽的分享和解答。
AI·Go | 智迅特点突出,主要表现在以下几个方面:
该实验平台通过典型的算法展示,结合人工智能的应用场景与案例,对学生进行人工智能方面的综合训练,达到专业实验教学由点及面、理论到应用、涵盖原理验证、综合应用、自主设计及创新的多层次实验体系,提供一整套完善的教学实验环境,包括了实验的课程管理、实验环境管理等。
此外,AI·Go|智迅选用了目前业界主流的算法框架,包括TensorFlow、MXNet、Caffe、Microsoft CNTK、Torch,保证培养出的人才是可以直接进入企业进行工作实践。
其教材体系的构建也相当的专业和严谨,海云捷迅结合英特尔的大学计划和教育部产学协同育人项目,由知名高校教师进行课程内容制作,既具前瞻性,又具有实用性,所有课程及实验全部通过实际教学检验,已集成20余门课程,100+实验。同时还支持老师上传自制课程,从而使课程变得更加丰富,构建出本科院校及职业院校人工智能人才培养新模式。
另外,海云捷迅 AI·Go|智迅,为高校开展FPGA+人工智能领域的相关课程培训,并提供认证证书,便于学校师生更好地学习掌握人工智能、高端芯片等领域的理论和业界领先的创新成果。
最后,AI·Go|智迅的演示环节将活动带入高潮——包括实验平台管理模拟老师,学生进行实验;FPGA Cloud Server 云端FPGA实验;FPGA人工智能开发套件人脸识别。为整个研讨会增添了不少趣味性,使到场来宾能够亲身的感受到人工智能教学的魅力。
人工智能与教育的结合已经是未来教育行业的必然发展趋势,当海云捷迅在云+人工智能+教育领域中不断探索和实践后,把“AI·Go|智迅”带到了我们面前,无疑成为助力人才培养,推动人工智能教育领域走向繁荣的有力“推手”。相信在未来,可以从越来越多的高校AI教育教学中看到“AI•Go|智迅”的身影。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。