至顶网服务器频道 07月21日 新闻消息: 2017年7月20日,由浪潮主办的第四届互联网应用技术峰会(ITS2017,Internet application Technology Summit)在深圳召开,来自腾讯、百度、网易、平安、顺丰、魅族、比亚迪、数梦工场、Intel等全国200余名用户和合作伙伴参与。会上,浪潮不仅展示了业界最丰富的AI产品阵列,还公布了面向智能制造、智慧物流和新零售等领域的一体机策略,推动智慧计算进一步落地。
第四届互联网应用技术峰会召开
从互联网第一到AI领先,浪潮计算力支撑行业发展
自2014年第一届互联网应用技术峰会首提传统企业转型到今年聚焦互联网+和人工智能,浪潮已经利用其在互联网行业的丰富服务经验和定制化创新成果,为企业提供更高效、更易管理、更低TCO的计算支撑平台,成为比亚迪、徐工等互联网+制造企业,德邦、顺丰等互联网+物流企业,苏宁、国美等互联网+零售企业的重要合作伙伴。
浪潮集团高级副总裁王虹莉发表演讲
"我们不难注意到,中国互联网快速发展的5年,也是浪潮快速发展的5年。这种牢固的依存关系和双向的推进已经不可撼动,浪潮籍此获得的领先优势在不断扩大。" 浪潮集团高级副总裁王虹莉在会上表示:"据IDC、Gartner数据显示,2017Q1浪潮服务器出货额中国第一,在互联网市场更是连续3年保持市场第一。值得注意的是在新兴的AI市场,浪潮在人工智能计算领域的市场份额也已经超过60%。"
目前浪潮已经拥有业界最全的AI计算产品阵列,涵盖AI计算基础设施层、AI集群管理平台和AI软件算法开发框架。在此次深圳互联网技术峰会上,浪潮首次国内集中展示了GX4、SR-AI整机柜服务器等可以Box形式独立扩展的创新AI计算产品,NF5280M5、AGX-2、NF6248等机架式GPU/KNL服务器以及FPGA卡等业界最丰富的AI全产品阵列。
浪潮现场展区展示AI计算产品
其中,SR-AI整机柜服务器是面向更大规模数据集和深层神经网络的超大规模AI计算模块;AGX-2是浪潮与NVIDIA联合发布的2U8 NVLink? GPU全球密度最高、性能最强的AI超级计算机;GX4是因其拓扑架构的调整灵活性而适用于全线AI应用场景的新型AI计算加速产品。而面向线上推理任务,浪潮推出的F10A是目前业界支持OpenCL的最高密度最高性能的FPGA加速设备,基于Altera的Arrial 10芯片,单芯片峰值运算能力达到了1.5TFlops,功耗却只需35W,每瓦特性能达到42GFlops。
除了丰富的AI计算平台之外,浪潮还将展示自主开发的AI Station深度学习管理系统、T-eye应用特征分析系统和Caffe-MPI深度学习并行计算框架。其中,AI Station 是浪潮自主研发的人工智能深度学习管理系统,面向深度学习计算集群,可以支持多种深度学习框架,能够快速部署深度学习训练环境,全面管理深度学习训练任务,为深度学习用户提供高效易用的平台;对计算集群的CPU及GPU资源进行统一的管理、调度及监控,有效的提高计算资源的利用率。
浪潮集团高级副总裁王虹莉表示:"目前浪潮的能力不仅仅局限在产品的定制化,随着对于行业应用理解的加深,浪潮能够实现产品技术的前置创新、快速满足。也就是说浪潮在前沿技术的应用上可能早于部分客户现有的需求,但随着客户规模增大或者业务升级,这些创新产品就可以被快速落地和应用。"在AI计算产品上,浪潮GX4不仅能够满足大型AI应用和算法开发者的需求,而且这些产品能够在短时间内复制到中小客户中去,实现AI需求的快速满足。
同时,这一理念也体现在浪潮的一体机策略中。会上,浪潮公布了第一批一体机的策略,包括面向智能制造的生产质检一体机,面向智慧物流的通信协同一体机、面向新零售的智能客服一体机。后续浪潮还将与国内领先的互联网公司进行产品的开发,面向更多应用场景推出一体化解决方案。
目前浪潮的业务链已经和用户紧密对接,一方面浪潮与Intel等计算芯片厂商,定制化开发FPGA产品和基于KNL/GPU的计算创新的AI计算设备。另一方面,浪潮与国内顶级的互联网公司均保持着密切的合作,将他们在AI领域的算法、软件能力与AI计算平台进行深度定制,从而形成即插即用的计算力服务,以一体化解决方案的形式,推动企业向互联网云化、智能化迈进。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。