2021年11月12日,广州——在近日举行的2021国际数字科技展暨天翼智能生态博览会上,英特尔联合中国电信天翼云创新构建算力云网,从云到边缘全面推进云网融合,并在展会现场全面展示了通过技术创新与生态构建服务千行百业数字化的最新成果。
英特尔销售与营销部副总裁兼亚太区运营商客户销售总经理庄秉翰表示:“随着云计算市场对算力的需求不断增长,加之5G技术产业端持续落地,越来越多全新场景需求不断爆发。可以预见,未来云网一体将成为竞争主战场,解决强算力、应对新场景更会成为行业必争之地。”
作为云计算核心,算力的重要性不言而喻。因此,面向各种行业及应用提供不同算力,进而提高效率、改变计算架构成为重中之重。为此,一方面,英特尔助力中国电信天翼云应对不断增长的算力需求,以突破异构计算等前沿科技,巩固其在中心云领域的领导地位。另一方面,借势原有网络端优势布局边缘、推动云边协同,在英特尔产品技术的支持下,中国电信天翼云建立ToB端全新业务增长点,成为客户可信赖的数字服务合作伙伴。基于此次活动,英特尔与中国电信天翼云展示了一系列双方联合创新成果。
英特尔联合中国电信天翼云打造的SD-WAN解决方案能够加速企业上云,提升分支入网、互联和网关效率,从而提高企业应用网络连接体验。而为助力不同行业及应用实现算力资源合理分配,英特尔还携手中国电信天翼云联合创新智能网卡、弹性裸金属服务器产品,释放被网络消耗的服务器CPU和内存资源,卸载网络负载,提升天翼云主机虚拟化效率,并探索未来异构计算的平台架构。基于英特尔FPGA SmartNIC C5000x平台的智能网卡还可以通过从服务器CPU上卸载网络功能提高网络吞吐量,并降低延迟,从而帮助改善数据中心性能。此外,这些智能网卡支持定制,可以从服务器CPU上卸载网络管理和安全功能,从而能够提高数据中心的自动化水平和安全性。
此外,由于全球算力需求每3.5个月就会翻一倍,面向企业全新算力需求,英特尔还携手中国电信天翼云在算力网络建设方面进行了深入探索,共同构建边缘一体机。英特尔联合中国电信天翼云共同推出天翼云ECX(K8S管理节点)、天翼云边缘节点(如果控制面单独部署)及5G专网一体机平台,不仅实现天翼云节点和天翼云边缘节点的统一管理调度,包括镜像管理、应用分发等,还达到边缘一体化、云网融合,构建云原生网元,实现云边协同。
而在深入探索AR/VR领域过程中,英特尔还与天翼云合作为用户打造能够提供全网络接入、高清正版内容、多终端沉浸式体验的游戏服务平台,让游戏玩家通过即点即玩的方式,全场景快速便捷地体验游戏乐趣,全面增强云游戏体验。英特尔®至强®可扩展处理器与英特尔®服务器GPU的组合,还能够为安卓云游戏以及OTT实时视频直播的高密度媒体转编码提供高密度、低时延解决方案。英特尔®服务器GPU采用英特尔Xe-LP微架构(英特尔能效最高的图形架构),专为高密度、低时延的安卓云游戏和流媒体服务而设计,能够从容面对高密度云渲染负载。与此同时,基于英特尔®服务器GPU,英特尔和中国电信天翼云还共同打造了具有拍照、文件共享等功能的云手机,更好地满足了用户对终端产品低时延、大带宽需求。
在算力需求呈指数级增长的时代,英特尔正在通过包括无所不在的计算、从云到边缘的基础设施、无处不在的连接及人工智能在内的“四大超级技术力量”来推动技术创新与变革来应对复杂挑战。而未来,英特尔也将继续凭借领先的云网边产品组合、软硬加速方案及通用参考设计,与国内外所有生态合作伙伴携手推动技术创新,推动5G应用百花齐放,共筑数字经济繁荣发展!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。