至顶网服务器频道 07月02日 新闻消息(文/李祥敬):在2018世界移动大会·上海期间,中国联通与华为在嘉里中心举办5G战略签约联合发布会,中国联通集团公司副总经理邵广禄,华为常务董事、运营商BG总裁丁耘出席并为发布会致辞。
启动仪式握手照片
在双方领导的见证下,中国联通网络发展部副总经理曲保忠与华为联通系统部部长高翔签署了5G战略合作协议。此次签约,对外宣布了双方在5G创新领域携手共进的战略共识。双方将充分发挥各自在5G领域的业务创新优势,并明确聚焦在5G端到端技术验证、垂直行业伙伴合作、5G生态圈构建、5G业务孵化和示范推广等领域展开重点创新合作。
双方领导签约照片
此外,本次发布会上,双方联合发布了面向5G演进的室内数字化白皮书,从业务、网络、频谱、用户等维度,分析了5G室内网络部署面临的挑战,剖析5G室内网络演进的驱动力,给出5G室内网络演进目标、关键技术要素等,共同推进5G数字化室内分布产业链的成熟。
中国联通集团副总经理邵广禄表示:“十年前,从2G演进到3G,3G技术使得移动互联网产业发生了巨大的变化;而下一个十年,网络从4G演进到5G, 5G技术使能万物智联的产业变革更快而且更广泛。在此,我们与华为公司再次携手深化5G领域的合作,聚焦5G组网及业务生态建设推进5G发展,共创5G业务生态繁荣,共赢5G美好未来。”
华为公司运营商BG总裁丁耘表示:“5G不仅能满足个人上网需求,同时也是无人驾驶、物联网、工业互联网等新应用的基础网络,5G将成为万物感知、万物互联、万物智能新世界的基石。当前5G已经走出通信行业,成为各行各业的数字化底座和基础设施,我们认为未来将是各行各业‘+5G’。”
在华为看来,相比3G/4G网络,5G在技术上更加复杂,有更多的物理层参数,需要更高级的天线技术,更多的频段,多种架构选择,多种双连接技术及分布式的云化架构等,所以持续的技术创新才能引领5G技术的发展。而5G在性能和架构上的革命性改进将使各行各业的应用对网络需求更加多样化。云化VR/AR需要网络满足云化及高清体验需求,车联网要求更低的网络时延,无人机在行业的应用需要立体覆盖的网络,无线机器人需要弹性网络能力。
丁耘表示,“行业+技术+应用”创新正在以前所未有的方式,牵引着技术创新的方向。5G时代,行业、应用与网络已不是简单的绑定关系,而是融合发展的关系,“行业+技术+应用”的融合创新才能驱动5G的大发展。
华为一方面将继续积极承担行业技术创新领导者责任,首个推出基于3GPP全球统一标准的端到端全系列5G产品解决方案;另一方面成立了无线应用场景实验室Wireless X Labs,与业界伙伴一起,共同进行5G应用的探索,先后成立了数字天空、云 VR等多个特别兴趣组,发布了5G十大应用场景白皮书,推动成立了 “5G汽车联盟”,“5G切片联盟”和“5G智能制造联盟”等多个联盟,加速了5G应用研究与孵化。
谈及双方的合作,丁耘说,5G的脚步越来越近,华为将在技术发展及标准化合作、端到端网络部署战略规划、5G内外场技术验证、业务孵化和示范推广、室内数字化建设等方面支持和配合中国联通的工作,鼎力支持中国联通在5G上形成“领跑优势”,持续提升中国联通网络与服务竞争力。双方将共同推进R16版本5G标准的完善和增强,共同探讨中国联通5G端到端网络战略规划节奏,共同进行5G外场站点规模部署并针对组网架构选择、上行增强等关键技术进行外场试验,联手在北京打造5G全国样板点,同时结合在其它试点城市的验证,在关键场所、关键场景、关键事件上进行5G应用的探索实践。“华为将持续探索5G技术解决方案和应用创新,助力中国联通一起构建5G生态联盟,携手行业合作伙伴一起为数字世界的到来铺好信息高速公路。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。