2021年9月28日,北京——今日,英特尔与腾讯云在2021年中国国际信息通信展览会(PT EXPO CHINA)上分享了全新的一站式应用云试玩场景方案。该方案基于全新Xe架构英特尔®服务器GPU,致力于推动app营销新玩法,并在更多领域持续突破,进而以更低时延和更原生画质,助力极致用户体验,激发无限价值。
英特尔视觉基础设施部总经理Nagesh Puppala指出,“得益于英特尔高密度服务器GPU和英特尔至强可扩展处理器,以及包括Intel® BridgeTechnology在内的软件,能够使原生安卓应用在基于英特尔的服务器上无缝运行,同时腾讯云也能够大规模提供云应用服务,并降低总体拥有成本。未来,英特尔也会持续携手腾讯云,进一步将云渲染应用扩展到更多用户、更多市场。”
腾讯云渲染产品总监黎国龙则表示:“腾讯和英特尔在云渲染领域展开全面合作,基于英特尔的高密度和高性价比GPU显卡,该方案拥有高密度、低时延、低功耗、低TCO的能力,不仅能极大地赋能用户,同时也有助于打造更多超级应用,助推行业发展。”
得益于5G技术打通端和边最后一公里连接,以及云计算和边缘计算的高速发展,云应用凭借其任意终端、任意平台、无需安装、即点即用的独特优势,正推动更多热门应用踏上云化之路。以市面上大多数移动应用为例,用户需要下载包体并注册,方可体验应用内容,部分热门应用还需额外等待1GB以上的更新下载流程。当下,移动端应用竞争趋于白热化,应用包体过大对用户体验影响极大,甚至会造成用户流失,影响投放转化率。而利用云渲染技术,数GB大小软件、APP可转化为互动视频流,能够带来近乎原生的用户体验。同时,开发者只需借助轻量级的软件开发工具包(SDK),即可打破应用间壁垒,实现无缝结合,提供绝佳用户体验,实现极高商业价值。
英特尔的高密度和高性价比服务器GPU显卡为腾讯云渲染的一站式应用云试玩场景方案提供了技术能力补充。该方案不仅具备高品质IaaS层能力,还与腾讯云渲染PaaS方案相融合。依托于腾讯云音视频遍布全球的边缘计算节点,以及腾讯实时音视频通信(TRTC)的全端支持、编码优化、传输优化功能,该方案能够让端到端时延低至60~80ms1,在减少冗长周期的同时降低高昂成本,助力软件及应用一键云化,实现即点即用。
作为英特尔正式发布的首款数据中心独立图形显卡,英特尔®服务器GPU采用英特尔Xe-LP微架构(英特尔能效最高的图形架构),配备低功耗独立片上系统设计,128比特管道和8GB专用板载低功耗DDR4显存,专为高密度、低时延的安卓云游戏和流媒体服务而设计,能够从容面对高密度云渲染负载。目前,集成英特尔®服务器GPU的新华三XG310 PCIe卡可提供32GB显存,在一个典型双显卡系统中最高支持160个并发用户,且每个实例的分辨率为720p每秒 30 帧2。此外,在1080p每秒30帧的情况下,该系统还能带来5.5倍高清流媒体(HEVC)转码性能提升,同时将比特率效率提升高达22%3。
展望未来,云渲染将作为通用能力,以不断衍生拓展的方式打造超级应用,加速数字孪生、虚拟仿真、智慧城市、智慧医疗等众多领域持续突破,大幅提升其互动性、可触达性、可延展性等特质。英特尔联合腾讯云的此次合作提升了腾讯云渲染在千行百业拓展的可行性,未来,英特尔也会继续携手众多行业生态合作伙伴,将边缘到云、硬件和软件融入整个生态,共同打造更极致用户体验,让每个人都可以在完全身临其境的模拟体验中实现无缝交互,打破虚拟与现实的边界。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。