2020年新冠疫情的爆发与蔓延为我们所生活的世界带来诸多的不确定性。无论企业还是个人,面对充满变数的环境,我们比以往任何时候都更加需要可靠而值得信赖的选择。VMware与英特尔便是如此。这个夏天,基于双方过往长达15年的深厚合作,VMware与英特尔继续坚定携手,共同致力于打造行业创新,谱写产业佳话。放眼整个业界,这一稳定持久的合作伙伴关系已在过去多年中为整个行业带来诸多价值,而近期,双方工程师基于VMware软件和英特尔傲腾持久内存(PMem)打造的三大创新突破更是将多年的合作伙伴关系推上全新高度。
SAP HANA是一款强大的内存数据库,也是支撑全球众多公司进行数据分析的关键要素。目前,英特尔傲腾持久内存已获得SAP HANA“裸金属”部署认证,不仅可提供经济高效的内存数据库性能,还能极大缩短重启时间。来自英特尔、VMware和SAP的工程师强强联手,在VMware vSphere 6.7和7.0环境中验证和认证了SAP HANA和傲腾持久内存,保障客户既可以受益于SAP HANA强劲的数据分析能力,也可在本地或公有云中获得在VMware vSphere上运行虚拟化所需的灵活性、可管理性和总体拥有成本的降低。这一优势同时满足了VMware和SAP严苛的认证条件,也证明了英特尔傲腾持久内存是真正具备企业部署就绪条件的产品。
自2019年4月起,由VMware提供支持的vSphere 6.7 EP10便开始应用于英特尔傲腾持久内存,且在此之后为傲腾持久内存的App Direct模式和内存模式均提供支持。在过去数月中,英特尔和VMware对内存模式下运行傲腾持久内存的VMware环境开展了额外的性能测试和配置优化。经过双方工程师的联手努力,我们得以在第二代英特尔至强可扩展处理器上推出一套全新的VMware支持的内存模式配置——在每个2路平台上可获得1TB到6TB不等的内存容量。该配置旨在指导客户优化DRAM和傲腾持久内存的最优配比,使其在vSphere环境中获得充分支持,并达到最佳性能。该配置指南的一项关键要求是英特尔与生态系统合作伙伴开发的名为“Balanced Profile”的性能增强型BIOS设置。
鉴于如今远程办公和学习的用户数量庞大,虚拟桌面基础架构(VDI)的部署也在相应地快速增加。为应对挑战,英特尔和VMware联手合作,开发了面向VMware Horizon VDI on vSAN的英特尔精选解决方案。英特尔精选解决方案是经过预先验证的硬件和软件配置,旨在减少认证时间,加快部署速度,并使客户增强对优化应用程序性能的信心。面向VMware Horizon VDI的英特尔精选解决方案“增强”(Plus)版配置采用第二代英特尔至强铂金处理器、英特尔傲腾持久内存、英特尔25Gb以太网、英特尔傲腾SSD和3D NAND SSD。相较于“基础”(Base)版配置,该配置支持的远程用户数量可增加87%,且每台台式机的成本更低。此外,英特尔还与VMware强强联合,支持我们的客户为远程用户提供更好的服务,打造更具灵活性的企业。
长期以来,英特尔与业内软件领先企业通力合作,持续通过性能优化和功能创新为业界缔造价值。这个夏天,通过与VMware围绕傲腾持久内存及其他英特尔技术展开坚实合作,我们也向业界切实展示了英特尔如何携手产业,充分发挥产品技术领导力、解决方案创新力和生态系统构建力,从而助力客户取得成功,与客户一同行稳致远。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。