4月16-17日,以“智慧凝聚”为主题的IPF2019浪潮云数据中心合作伙伴大会将于上海隆重举行。IPF(Inspur Partner Forum)是浪潮的年度盛会,今年预计将有近2000名ISV、SI、机构专家等不同行业领域的企业高管、海内外技术专家参加会议。
2018年是AI高速发展的一年,浪潮作为领先的AI计算方案提供商,从计算平台、管理套件、框架优化、应用加速等四个层次致力于打造敏捷、高效、优化的AI基础设施。根据IDC数据,2018上半年,浪潮在AI基础架构领域的销售额份额为51.4%。2019年,浪潮将继续聚焦AI,夯实AI能力,在IPF2019上发布系列AI生态产品。与此同时,如何抓住市场新兴机会,与合作伙伴共建生态,也是浪潮将在IPF2019重点释放的信息。
当前世界经济处于重要变革期,以云计算、大数据、人工智能为代表的智慧计算新一轮信息技术革命正在向产业渗透,可以说智慧计算时代已经来临。在智慧时代,一切皆计算,计算力就是生产力。而智慧计算的核心是AI,代表智慧计算的发展方向。
“算法、数据、计算力”是驱动AI发展的三驾马车,在这一时代下,计算力的跨越式发展为深度神经网络算法应用于大数据处理提供了可能,计算点亮AI。AI作为一项社会性变革技术正在快速发展,算法的不断发展突破、海量数据的挖掘训练、AI场景的前后端联动线上线下融合,均依赖于计算力的指数级增长。在这一关键时间节点,AI基础架构至关重要,其承载并支撑指数级计算力增长,为人工智能应用发展提供动力。
基于对AI未来发展趋势的洞察,浪潮将聚焦全栈式AI计算系统能力的建设,从平台、管理、框架、应用着手,帮助AI用户实现前端承接多源数据、后端支撑智能应用,加速AI赋能行业。2018年,浪潮发布了最强AI超级服务器AGX-5,计算性能高达每秒2千万亿次,推出了全球首款集成HBM2的FPGA加速卡F37X,还发布了支持TensorFlow的FPGA计算加速引擎TF2。在AutoML领域也取得了突破,获得NeurIPS 2018第三届自动机器学习挑战赛全球第三名。同时,浪潮还担任SPEC Machine Learning技术委员会主席,推动AI基准性能测试标准建立。
IPF2019,围绕AI,浪潮还将会发布怎样的产品?让我们拭目以待。
IPF也是业界最重要的创新成果交流平台,与会者可以了解到最新的技术发展趋势。
IPF2019将迎来包括开放计算组织OCP、标准性能评估组织SPEC、Intel、微软、SAP、Nutanix、VMware等顶级科技公司的技术专家,同时来自平安科技、苏宁、格力、大华、南天的行业专家,将现场分享新金融、新零售、新制造等领域的最新实践和应用。
3000平米展厅将全面展示浪潮在AI Full Stack、边缘计算、基于稳定可靠高性能的英特尔至强平台打造的M5系列产品,以及面向多种行业场景应用的解决方案。同时携手20+生态伙伴,面向金融、广电、医疗、公共安全等40+个行业场景化解决方案也将在现场与各位嘉宾现场互动。
秉承“共生共赢”生态理念的浪潮,会更加加深在AI时代背景下的伙伴合作深度与广度。
2018年,浪潮合作伙伴生态2.0建设卓有成效,合作伙伴数量超过9000家,形成了分销业务、行业解决方案、智慧计算业务等三个生态平台。浪潮与伙伴的联合创新平台和技术交流中心InCloud Lab,已经吸引了Intel、NVIDIA等100多家芯片供应商,微软、SAP等100多家软件供应商,以及200多家行业软件供应商。
2019年,浪潮继续坚定“伙伴第一”,奉行百花齐放的AI生态观,致力于与伙伴合作模式的升级,在AI时代实现共赢。作为每年发布合作伙伴生态政策细则的舞台,IPF2019值得期待。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。