4月16-17日,以“智慧凝聚”为主题的IPF2019浪潮云数据中心合作伙伴大会将于上海隆重举行。IPF(Inspur Partner Forum)是浪潮的年度盛会,今年预计将有近2000名ISV、SI、机构专家等不同行业领域的企业高管、海内外技术专家参加会议。
2018年是AI高速发展的一年,浪潮作为领先的AI计算方案提供商,从计算平台、管理套件、框架优化、应用加速等四个层次致力于打造敏捷、高效、优化的AI基础设施。根据IDC数据,2018上半年,浪潮在AI基础架构领域的销售额份额为51.4%。2019年,浪潮将继续聚焦AI,夯实AI能力,在IPF2019上发布系列AI生态产品。与此同时,如何抓住市场新兴机会,与合作伙伴共建生态,也是浪潮将在IPF2019重点释放的信息。
当前世界经济处于重要变革期,以云计算、大数据、人工智能为代表的智慧计算新一轮信息技术革命正在向产业渗透,可以说智慧计算时代已经来临。在智慧时代,一切皆计算,计算力就是生产力。而智慧计算的核心是AI,代表智慧计算的发展方向。
“算法、数据、计算力”是驱动AI发展的三驾马车,在这一时代下,计算力的跨越式发展为深度神经网络算法应用于大数据处理提供了可能,计算点亮AI。AI作为一项社会性变革技术正在快速发展,算法的不断发展突破、海量数据的挖掘训练、AI场景的前后端联动线上线下融合,均依赖于计算力的指数级增长。在这一关键时间节点,AI基础架构至关重要,其承载并支撑指数级计算力增长,为人工智能应用发展提供动力。
基于对AI未来发展趋势的洞察,浪潮将聚焦全栈式AI计算系统能力的建设,从平台、管理、框架、应用着手,帮助AI用户实现前端承接多源数据、后端支撑智能应用,加速AI赋能行业。2018年,浪潮发布了最强AI超级服务器AGX-5,计算性能高达每秒2千万亿次,推出了全球首款集成HBM2的FPGA加速卡F37X,还发布了支持TensorFlow的FPGA计算加速引擎TF2。在AutoML领域也取得了突破,获得NeurIPS 2018第三届自动机器学习挑战赛全球第三名。同时,浪潮还担任SPEC Machine Learning技术委员会主席,推动AI基准性能测试标准建立。
IPF2019,围绕AI,浪潮还将会发布怎样的产品?让我们拭目以待。
IPF也是业界最重要的创新成果交流平台,与会者可以了解到最新的技术发展趋势。
IPF2019将迎来包括开放计算组织OCP、标准性能评估组织SPEC、Intel、微软、SAP、Nutanix、VMware等顶级科技公司的技术专家,同时来自平安科技、苏宁、格力、大华、南天的行业专家,将现场分享新金融、新零售、新制造等领域的最新实践和应用。
3000平米展厅将全面展示浪潮在AI Full Stack、边缘计算、基于稳定可靠高性能的英特尔至强平台打造的M5系列产品,以及面向多种行业场景应用的解决方案。同时携手20+生态伙伴,面向金融、广电、医疗、公共安全等40+个行业场景化解决方案也将在现场与各位嘉宾现场互动。
秉承“共生共赢”生态理念的浪潮,会更加加深在AI时代背景下的伙伴合作深度与广度。
2018年,浪潮合作伙伴生态2.0建设卓有成效,合作伙伴数量超过9000家,形成了分销业务、行业解决方案、智慧计算业务等三个生态平台。浪潮与伙伴的联合创新平台和技术交流中心InCloud Lab,已经吸引了Intel、NVIDIA等100多家芯片供应商,微软、SAP等100多家软件供应商,以及200多家行业软件供应商。
2019年,浪潮继续坚定“伙伴第一”,奉行百花齐放的AI生态观,致力于与伙伴合作模式的升级,在AI时代实现共赢。作为每年发布合作伙伴生态政策细则的舞台,IPF2019值得期待。
好文章,需要你的鼓励
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌近期悄然调整账户存储政策:新注册用户若未绑定手机号,免费存储空间将从原来的15GB缩减至5GB。用户需验证手机号后,方可获得完整的15GB空间,用于Gmail、Drive和Photos的共享使用。谷歌表示,此举旨在确保存储空间"每人仅限一份",有效防止滥用。有分析认为,存储硬件成本上升也是推动此次政策调整的重要原因之一。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。