2020年11月2日~4日,第十四届深圳国际金融博览会(简称:金博会)在深圳会展中心1展馆盛大进行。金博会是国内金融业界最大规模的会展活动之一,浪潮商用机器携全新Power产品亮相金博会,与近两百家金融机构、金融科技企业齐聚一堂,围绕各种金融新业态、新模式、新产品、新服务,积极展开交流,探讨金融与科技相辅相成协同发展的创新型金融生态体系。
专题展区硕果累累 金融科技亮点多多
本届金博会适逢深圳经济特区建立40周年,亦是扶贫攻坚的收官之年,通过打造“深圳金融业发展40年成果展”、“金融稳企业保就业”、“金融精准帮扶”三大亮点专区,全方位对外展示深圳金融业改革发展、稳定实体经济、助力精准脱贫的丰硕成果。
此外,本届金博会还设置了银行、保险、证券、基金、期货及金融科技等综合展区,浪潮商用机器以“新常态 新核心 新Power”为主题,携针对金融行业典型核心应用业务的明星产品及自主创新、安全可靠的解决方案参展。
以卓越智慧算力 夯实新常态下金融科技发展基石
一直以来,浪潮商用机器坚持自主创新,致力于通过科技赋能,加速金融行业更好发展。秉承开放合作的态度,浪潮商用机器积极展开与各级银行、券商等展开金融科技创新,打造了一系列优秀的产品和解决方案,积极满足金融行业核心业务升级以及对国产化的要求。本届金博会,浪潮商用机器携自主创新的高品质旗舰产品K1 Power E980、K1 Power Linux明星产品CP5280G2参展,吸引了与会者的巨大关注。
新常态下,为满足业务模式升级和业务发展的需要,企业需要打造新的核心IT系统架构。在业务线上化和数字化原生业务共同发展的背景下,新核心须能够同时满足传统业务和线上业务的诉求,同时兼顾纵向扩展和横向扩展的优势。新核心既包括传统核心向新核心的稳健演进,也包括创新应用中的重要系统成为核心系统新的组成部分,因此需要更高规格,更安全稳定可靠的IT基础架构支撑。
浪潮K1 Power服务器具备核心优势,支持集中式数据库、开源数据库,并且完美支持多云架构,能够满足企业核心业务稳健上云,以及在大数据、人工智能、分布式存储等前沿应用场景需求。
登录线上展馆 领略浪潮商用机器风采
新冠疫情在全球范围愈演愈烈,积极贯彻国家疫情防控工作要求,同时加强创新发展,打造共赢共享的高质量展览平台,浪潮商用机器在参加本届金博会之外,还积极携手金融电子化打造了线上展馆平台,确保公众健康观展。
该线上展馆集VR、3D、大数据、云计算、人工智能等科技手段于一身,以虚拟展厅、网上社区等形式为载体,实现沉浸式观展、个性化展示。浪潮商用机器线上展厅共设置了四大主题展区,细分了“新常态 新核心 新Power”四大举措展区、“K1 Power混合云”展区、“基于国产POWER处理器-CP1的自研国产服务器”展区、“K1 Power核心部件国产化”展区、“K1 Power全系列产品”展区、“K1 Power E980服务器”详解展区等多个展示区域,让用户的线上观展体验更有针对性,让产品触达用户也更加精准。
随着金融科技创新发展,浪潮商用机器将继续坚持自主创新,紧跟时代需求,为服务金融国产化和中国金融创新继续贡献力量。
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。