7月7日上午,在2023世界人工智能大会“AI生成与垂直大语言模型的无限魅力”主题论坛上,UCloud优刻得AIGC算力底座亮相,优刻得董事长兼CEO季昕华发表了“中立安全云计算助力大模型发展”主题演讲,介绍优刻得在AIGC领域的技术产品、工程能力和生态建设等发展情况。
作为具有10年云计算技术积累和全面工程能力的优刻得,全面拥抱了这次AIGC引爆的科技热潮。在演讲开始,季昕华展示了优刻得公司内部系统的“AI化”,短短几个月内,就基于公司内部使用场景,迅速推出了:“识问”智能助手平台,UCoder代码助手平台,AI绘画助手平台、大模型安全管理平台等。优刻得通过对AIGC应用侧的快速响应和研发,展示了在这个领域内“玩儿得转”的技术实力和工程能力、以及对用户场景的敏感洞察力。
由AIGC引爆的热潮里,国内大模型已百花齐放,竞速神通,但也面临算力、数据、模型稳定性、工程能力及安全等多方面的挑战。
针对AIGC发展的问题,优刻得在本次WAIC上隆重亮相的AIGC解决方案全景图,通过深厚的技术积累和全面的系统工程能力,推出涵盖了数据中心、计算平台、管理平台、网络服务、应用服务、生态接口的一系列产品和解决方案。开放、安全、定制的AIGC解决方案让客户既能利旧已有服务器资源,又可以便捷享受公有云的弹性扩容,实现IT层面的降本增效。并可通过数据中心托管专区,为用户提供完全物理隔离的独享机柜、服务器、网络、存储资源,结合完整的安全方案和专家服务,确保了用户的大模型平稳运行。
优刻得在国家“东数西算”算力枢纽节点,自建了低成本、高附加值的数据中心,相较北京同等质量的数据中心,成本下降40%。数据中心内,提供多款GPU算力资源选择,可为大模型的AI训练、推理、数据处理等多场景打造灵活、可扩展的算力服务,充分满足高电算力集群的高电需求。同时,通过IB和RoCE的高性能网络,打造互联的高性能计算集群,实现多节点间无损通信,满足用户多节点并行计算的场景需求。
优刻得 AIGC解决方案全景图
优刻得的AIGC金翼专区,分为“训练区、存储区、推理区和管理区”,在训练区主要以A800/H800进行集群专区建设,集群规模最大可达2048卡规模。并通过高带宽、低延迟的设计,提升整体训练效率。在存储区,根据高读写带宽的场景特点,采用冷热分离的存储系统设计,并支持POSIX、K8S CSI挂载方式,不仅能满足训练需求,同时保障成本可控。在推理区,通过内网打通同可用区公有云GPU资源池,具备多种类推理GPU资源,弹性可伸缩的满足多场景推理需求。在管理区,提供日志、调度、IPMI管控、自动化装机和公网访问等能力,协助用户进行更为便捷的远程管理。
在AIGC应用服务方面,为了满足客户对大模型的需求,优刻得以MaaS模式,推出“算法模型镜像市场”,上线Alpaca-LoRA7B、ChatGLM-6B、T5-Base、T5-3B、MiniGPT-4、Stable Diffusion 、Milvus向量数据库等7款开源模型和工具,覆盖知识推理、问答、图文生成及绘画设计等 AI 应用领域。通过“大模型+大算力”的方式,提供一键部署和开箱即用能力,为用户快速搭建大语言模型的微调或者推理环境。
私有化是垂直大模型的发展方向,针对政府、金融、教育、制造、基金等客户大模型场景,优刻得 AIGC 私有化算力中心和全栈私有云平台,从大模型训练推理多样化场景出发,为客户推荐机型提供预装部分工具的镜像;并提供推理GPU算力/网络资源;同时结合优刻得一云多芯且自主可控的私有云平台,提供虚拟化、存储、网络及 MaaS 模型的私有化交付解决方案,支持 Alpaca-LoRA、ChatGLM、T5、MiniGPT-4 及 Stable Diffusion 等大模型,可覆盖知识推理、问答、图文生成及绘画设计等 AI 应用领域,从而在用户本地或自己数据中心内部署针对特定场景的大模型服务,既可以为内部提供AI训练/推理服务,也可选择性对外提供AI推理服务。
优刻得 AIGC 私有化方案架构图
作为中立云计算企业,优刻得AIGC解决方案具有独特的优势:一是中立,优刻得作为中立第三方,与大模型企业没有竞争,不触碰用户的隐私数据。二是安全可靠,优刻得具有内资背景,系列安全防护产品及数据保护机制,确保大模型训练稳定可靠运行。并支持私有化部署。三是技术沉淀,优刻得具有超10年云计算技术沉淀,已经超5万家企业级消费用户验证,更好的为大模型提供稳定的高性能算力服务。四是工程能力,优刻得能够从数据中心、底层架构做到算力平台、模型库等,具有一站式系统工程服务能力。
随着AIGC的继续发展和走向行业纵深,UCloud优刻得将通过中立安全的算力底座,与技术层、应用层的合作伙伴一起,探索AIGC更大的发展前景和更广阔的发展空间。智算无界,生成未来。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。