【德国,法兰克福,2016年6月20日】华为携手Mellanox今日在国际超算大会2016上,发布基于华为FusionServer E9000融合架构刀片服务器的InfiniBand EDR 100G交换解决方案,E9000也由此成为全球率先支持InfiniBand EDR 100G高速网络的刀片服务器之一。
Mellanox是全球领先的数据中心高速网络解决方案提供商,在全球范围内为服务器和存储提供端到端InfiniBand和以太网互联解决方案。Mellanox提供网卡、交换机、软件和芯片,其高速网络解决方案可以极大的提升数据中心效率,在应用和系统之间快速的传递数据,提升系统可用性。
面对云计算和大数据技术不断增长的数据处理需求,华为与Mellanox一致认为高速网络是驱动数据中心云化的技术基石。本次发布的InfiniBand EDR 100G交换解决方案,基于华为FusionServer E9000融合架构刀片服务器,专门针对高性能计算(HPC)、云数据中心、金融实时交易等应用场景,最大带宽可达100Gb/s、时延低至90ns,并拥有Virtual Protocol Interconnect (VPI)、Remote Direct Memory Access (RDMA)等特性,可大幅提升数据中心网络性能,并降低运营成本和基础设施复杂性,是大带宽、低时延应用的首选方案。
华为刀片服务器经理张小华表示:“Mellanox是华为重要的合作伙伴,此次携手发布基于 E9000刀片服务器的InfiniBand EDR 100G解决方案,将为客户带来更高的网络性能,显著提升网络敏感型应用的性能和效率。凭借多年的持续创新,华为E9000刀片服务器一直致力于为客户提 供卓越的性能和可靠性,并为客户提供更多样、更有竞争力的网络解决方案。”
Mellanox亚太及中国区市场高级总监刘通表示:“Mellanox致力于为数据中心 提供高效与智能的网络互连解决方案,华为则在整体数据中心方案中不断创新,相信加载Mellanox 100G高速网的华为E9000刀片服务器能够成为构建高效数据中心的出色产品。”
图片说明:华为FusionServer E9000融合架构刀片服务器全球率先支持InfiniBand EDR 100G高速网络
华为FusionServer E9000融合架构刀片服务器,秉承融合架构的理念,集计算、存储、网络于一体,全面提升客户的运营效率和数据处理能力。E9000近期更是推出了全闪存 刀片等业界独家特性,结合InfiniBand EDR 100G网络的高速低延迟带宽,可使单个刀片吞吐速率达到1000万IOPS,将充分释放高性能数据库、HPC等业务的巨大潜力。
根据Gartner的统计数据,截至2016年第1季度,华为刀片服务器已连续10个季度出货量排名全球前3,华为服务器应用于全球超过5000家客户,涵盖政府及公共事业、电信、能源、金融、交通、医疗、教育、媒资、制造等行业。
--全文结束—
华为公司简介
华为是全球领先的信息与通信(ICT)解决方案供应商。作为负责任的稳健经营者、创新的信息社会使能者、合作共赢的产业贡献者,华为致力于构建更美好的全联接世界。华为坚持围绕客户需求的持续创新,与合作伙伴开放合作,在电信网络、企业网络、终端和 云计算等领域构筑了端到端的解决方案优势。通过全球专注敬业的17万名华为人,致力于为运营商客户、企业客户和消费者创造最大的价值,提供有竞争力的 ICT解决方案、产品和服务。目前,华为的业务遍及全球170多个国家和地区,服务全世界1/3以上的人口。华为公司成立于1987年,是一家由员工持有 全部股份的民营企业。欲了解更多详情,请参阅华为官网:www.huawei.com
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。