4月16-17日,以“智慧凝聚”为主题的IPF2019浪潮云数据中心合作伙伴大会将于上海隆重举行。IPF(Inspur Partner Forum)是浪潮的年度盛会,今年预计将有近2000名ISV、SI、机构专家等不同行业领域的企业高管、海内外技术专家参加会议。
2018年是AI高速发展的一年,浪潮作为领先的AI计算方案提供商,从计算平台、管理套件、框架优化、应用加速等四个层次致力于打造敏捷、高效、优化的AI基础设施。根据IDC数据,2018上半年,浪潮在AI基础架构领域的销售额份额为51.4%。2019年,浪潮将继续聚焦AI,夯实AI能力,在IPF2019上发布系列AI生态产品。与此同时,如何抓住市场新兴机会,与合作伙伴共建生态,也是浪潮将在IPF2019重点释放的信息。
当前世界经济处于重要变革期,以云计算、大数据、人工智能为代表的智慧计算新一轮信息技术革命正在向产业渗透,可以说智慧计算时代已经来临。在智慧时代,一切皆计算,计算力就是生产力。而智慧计算的核心是AI,代表智慧计算的发展方向。
“算法、数据、计算力”是驱动AI发展的三驾马车,在这一时代下,计算力的跨越式发展为深度神经网络算法应用于大数据处理提供了可能,计算点亮AI。AI作为一项社会性变革技术正在快速发展,算法的不断发展突破、海量数据的挖掘训练、AI场景的前后端联动线上线下融合,均依赖于计算力的指数级增长。在这一关键时间节点,AI基础架构至关重要,其承载并支撑指数级计算力增长,为人工智能应用发展提供动力。
基于对AI未来发展趋势的洞察,浪潮将聚焦全栈式AI计算系统能力的建设,从平台、管理、框架、应用着手,帮助AI用户实现前端承接多源数据、后端支撑智能应用,加速AI赋能行业。2018年,浪潮发布了最强AI超级服务器AGX-5,计算性能高达每秒2千万亿次,推出了全球首款集成HBM2的FPGA加速卡F37X,还发布了支持TensorFlow的FPGA计算加速引擎TF2。在AutoML领域也取得了突破,获得NeurIPS 2018第三届自动机器学习挑战赛全球第三名。同时,浪潮还担任SPEC Machine Learning技术委员会主席,推动AI基准性能测试标准建立。
IPF2019,围绕AI,浪潮还将会发布怎样的产品?让我们拭目以待。
IPF也是业界最重要的创新成果交流平台,与会者可以了解到最新的技术发展趋势。
IPF2019将迎来包括开放计算组织OCP、标准性能评估组织SPEC、Intel、微软、SAP、Nutanix、VMware等顶级科技公司的技术专家,同时来自平安科技、苏宁、格力、大华、南天的行业专家,将现场分享新金融、新零售、新制造等领域的最新实践和应用。
3000平米展厅将全面展示浪潮在AI Full Stack、边缘计算、基于稳定可靠高性能的英特尔至强平台打造的M5系列产品,以及面向多种行业场景应用的解决方案。同时携手20+生态伙伴,面向金融、广电、医疗、公共安全等40+个行业场景化解决方案也将在现场与各位嘉宾现场互动。
秉承“共生共赢”生态理念的浪潮,会更加加深在AI时代背景下的伙伴合作深度与广度。
2018年,浪潮合作伙伴生态2.0建设卓有成效,合作伙伴数量超过9000家,形成了分销业务、行业解决方案、智慧计算业务等三个生态平台。浪潮与伙伴的联合创新平台和技术交流中心InCloud Lab,已经吸引了Intel、NVIDIA等100多家芯片供应商,微软、SAP等100多家软件供应商,以及200多家行业软件供应商。
2019年,浪潮继续坚定“伙伴第一”,奉行百花齐放的AI生态观,致力于与伙伴合作模式的升级,在AI时代实现共赢。作为每年发布合作伙伴生态政策细则的舞台,IPF2019值得期待。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。