2018年4月26日,以“聚浪成潮 致新志远”为主题的2018浪潮云数据中心全国合作伙伴大会IPF(Inspur Partner Forum)将在北京雁栖湖国际会展中心举行,届时将有数千名ISV、SI、CSP等不同行业领域的企业高管、海内外技术专家参加会议。
浪潮云数据中心合作伙伴大会(IPF2018)将于北京雁栖湖盛大召开
IPF合作伙伴大会是浪潮的年度盛会,不仅有新战略的宣布,还有创新产品的亮相。与以往不同,今年浪潮已经步入业务发展的新格局。2015年浪潮提出的5年进入全球前三的增长目标,已经在2017年提前3年实现。浪潮完成了从中国第一向全球领先厂商的蜕变。
“聚浪成潮”目前已“潮已成势”。2018年,浪潮与伙伴“势在必行”,将共同创造新的格局,开启全新的时代,推进五年全球第一的“新”目标。“新”成为了本届IPF的关键词。
人工智能作为一项对人类社会变革带来深远影响的技术,正在呈现新思路、新格局。随着算法的日趋复杂与数据的持续增长,人工智能的下一个重大突破越来越依赖于计算技术的进步,提供计算力服务的公司在未来产业格局中的地位和价值将更加重要。
在过去的一年中,无论是产品技术创新,还是加速AI赋能行业,乃至全球AI生态推动等领域,浪潮都取得了重大突破。与百度联合发布的面向更大规模数据集和深层神经网络的超大规模AI计算模块——SR-AI整机柜服务器,与NVIDIA联合发布的超高密度服务器AGX-2,以及新型AI加速计算产品GX4。这些产品完整覆盖从单机4卡到64卡集群的不同AI计算平台,可支持从小规模的样本训练到千亿样本、万亿参数级别的超大规模模型训练,能够满足AI云、深度学习模型训练和线上推理等各类AI应用场景对计算架构性能、功耗的不同需求。同时,浪潮也发布了人工智能深度学习训练集群管理软件AIStation和Teye计算框架分析工具,并持续更新集群版开源深度学习框架Caffe-MPI。
浪潮构建全球最丰富的AI计算平台
今年,浪潮AI将全面升级,提供一系列AI计算力的核心价值与能力,驱动一个可进化的智能世界的蓬勃发展。
IPF也是业界重要的创新成果交流平台,参会者将了解到最新的技术发展趋势。2018年,浪潮将继续聚焦智慧计算业务战略,在本届大会集中展示智慧计算的创新成果。
浪潮将与合作伙伴展出语音识别、超大规模深度学习训练、超融合架构等最新的技术、产品和解决方案,还会联合合作伙伴发布语音识别一体机等一系列联合方案。
除此之外,本次大会将有在AI、开放计算、咨询机构等领域的国内外大咖助阵,OCP开放计算社区CTO以及比亚迪、滴滴等企业负责人将就车联网、自动驾驶、智慧交通等技术话题进行演讲,分享实用经验。
在过去的16个季度中,有10个季度浪潮增速全球第一。目前浪潮已经有了相对完善的全球化布局,要保持当前的高速增长,浪潮需要构建海外市场的竞争力,因而,浪潮在2018年将进一步升级全球化战略。
另外,市场增长继续分化,CSP群体采购保持稳健,云、大数据、人工智能等新兴应用发展迅速。如何抓住市场新兴机会,是浪潮保持增长需要解决的第二个问题。
这些问题和挑战都将会对浪潮的伙伴政策产生深远影响,因而,IPF18浪潮新的伙伴政策将值得大家关注。
直播链接:
https://ipf-inspur.issmart.com.cn/web/fontend/minisite/inspur/index.html?channel_link_id=1079218&utm_campaign=IPF%E6%B5%AA%E6%BD%AEminisite&utm_source=%E5%85%B6%E4%BB%96&utm_medium=%E4%BB%98%E8%B4%B9%E5%AA%92%E4%BD%93
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。