至顶网计算频道 12月03日 新闻消息:2019年赛灵思开发者大会(XDF)亚洲站今日于北京盛大揭幕。赛灵思数据中心事业部举行媒体沟通会,这是赛灵思数据中心事业部(DataCenterGroup,DCG)成立以来首次以一个全新事业部的形式公开亮相媒体活动。赛灵思执行副总裁兼DCG事业部总经理Salil Raje高光展示了赛灵思与数据中心ISV合作伙伴在数据库与数据分析、机器学习、高性能计算、视频与图像、金融科技以及网络加速等领域基于Alveo加速器卡的各种创新成果,展示了赛灵思为解决数据中心关键工作负载而打造的强大的数据中心生态系统。与此同时,Salil还分享了赛灵思自2018年启动全新战略以来的所取得的各个重里程碑式发布,在“数据中心优先”战略执行下取得的一系列重大进展,以及赛灵思以自适应计算持续引领未来数据中心产业转型的发展历程。
图:赛灵思执行副总裁兼数据中心事业部总经理Salil Raje与ISV生态系统合作伙伴携手亮相XD
人工智能的发展、日益复杂的工作负载以及非结构化数据的爆炸式增长,正迫使数据中心快速转型。随着5G、人工智能(AI)、云计算、物联网及自动驾驶等新一代信息技术快速演进,全球数据正呈指数级增长并呈海量聚焦态势。根据IDC预测,从2018年至2025年,全球每年被创建、采集或复制的数据将增长5倍以上,预计将从2018年的32ZB增至2025年的175ZB,而中国将于2025年以48.6ZB的数据量及27.8%的占比,成为全球最大的数据汇集地。无论是公有云,私有云还是混合云,面对无止境的数据增长,都希望能够大幅提升数据中心的利用率、性能和能效,降低运营成本和总成本。一场现代数据中心的升级转型实在必行。
Salil表示:“赛灵思灵活应变的高性能计算、存储和网络加速自适应计算加速平台,正在加速驱动这场转型。赛灵思专门打造的Alveo加速器卡平台和业界首款7nm Versal自适应计算加速平台,加上不断壮大的合作伙伴生态系统,将为数据中心企业升级转型和可持续发展,提供强大动力。”
2018年初,赛灵思宣布启动三大公司战略,即数据中心优先、加速核心市场发展及驱动自适应计算。其目的就是要支持所有的开发者都能受益于赛灵思灵活应变的自适应平台,加速创新进程。在数据中心优先战略的惊人发展,让各种各样的软件和系统开发者更多地加入了自适应计算的世界,成为推动公司加速由器件向平台转型的战略。
2018年XDF上,赛灵思推出功能强大的Alveo加速器卡产品系列,实现了数据中心优先战略的先行落地。Alveo旨在大幅提升云端和本地数据中心中业界标准服务器性能,推动自适应器件的普及应用。该产品系列目前已扩展至Alveo U50、U200、U250、U280四款产品,并已在美国、欧洲和中国市场得到广泛应用。2019年4月,赛灵思宣布收购Solarflare通信公司,将领先的FPGA、MP SoC和ACAP解决方案与Solarflare的超低时延网络接口卡(NIC)技术以及Onload应用加速软件相结合,从而实现全新的融合SmartNIC解决方案。
在Alveo加速器卡推出后,赛灵思与OEM厂商、增值经销商及分销商形成围绕Alveo的庞大服务器加速技术生态体系,覆盖金融、生命科学、机器学习、分析以及视频等关键工作负载,共同打造更为简便易用且功能强大的服务器加速产业。2019 XDF Asia专门为ISV们打造了一个Alveo专区,两天中共有来自全球各地的近20家ISV方案展示,其中一半来自中国。根据Victor的主题演讲,赛灵思已经开始与众多知名服务器OEM提供商如Dell、HP、浪潮等携手Alveo加速,培训企业及学术界用户达7000多人,加入赛灵思加速器计划的合作伙伴已经达800多家,应用发布近100个。除此之外,众多领先的增值业务经销商(VAR)和分销商等的加入,不仅丰富了赛灵思数据中心生态系统,而且也展示了业界领先企业对赛灵思数据中心战略的信心。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。