6月18日,第十四届“中国•海峡项目成果交易会”在福州隆重开幕,担当起“双创”大舞台的新角色。一年一度的“6.18”已成为大力推进自主创新,引导高校和科研机构科技创新资源、成果与企业需求对接,推进科技成果向现实生产力转化,实现合作共赢的平台。作为福建省最大的项目交流盛会,吸引了逾4000家来自海内外知名企业、科研院所参加。
第十四届“中国•海峡项目成果交易会”在福州隆重开幕
2016中国(福建)VR产业/大数据发展高峰论坛
作为VR领域上游的芯片及系统提供商,AMD受邀参加了本届大会。AMD大中华区市场营销副总裁纪朝晖作为嘉宾出席了大会期间的“2016中国(福建)VR产业/大数据发展高峰论坛”,发表了精彩演讲,向众多参会者详细介绍了VR发展历程和机遇,以及AMD在VR领域的优势产品和技术。
AMD大中华区市场营销副总裁纪朝晖
纪朝晖表示,VR将人们带入到了个人计算的第三个浪潮。“现在大家越来越重视体验,我们已经进入了‘沉浸式’的时代,也就是VR时代。VR是自显示器发明以来最重要的一次人机交互革命,将引发未来10年‘感知计算’的创新浪潮,最终彻底改变人和大数据、互联网的交流方式。”
“这种‘沉浸式’的体验跟看3D电影完全不一样,它会让你完全浸入其中,这就对图形的计算能力、后端的显卡芯片技术要求非常高,需要更高性能的显卡”,纪朝晖说,“目前世界上能够真正运行VR的PC主机比例不足1%,而已经来临的‘沉浸式’计算时代对GPU计算能力的要求比当前高100万倍”。在不久前的Computex和E3大展上,AMD分别展示了基于全新北极星架构和14nm FinFET工艺的Radeon RX系列全新产品。北极星架构独家支持异步计算,为VR应用提供卓越体验。
AMD在VR领域深耕不辍,推出了一系列强大的VR解决方案:支持VR的高性能显卡Radeon R9 Fury X/Fury,Radeon R9 Nano,Radeon R9 390X/390等;为VR内容创作者推出了应用开发平台LiquidTM VR API,这一平台让开发者非常容易上手开发VR应用。此外,AMD还积极与HTC等全球顶级厂商成立VR产业联盟,共同推动VR产业发展。纪朝晖称,这些也是AMD致力于在VR领域做好的三件事。
在此基础上,AMD还大力推动将VR应用到其他领域,如与美联社开启战略合作,联合开创全新的虚拟现实体验频道。目前AMD在VR领域的努力已见成效,根据市场调研机构JPR的统计数据,基于AMD平台的VR娱乐系统将占据潜在市场的83%。
本届大会上,AMD还为参会者带来了一场至真至幻的VR 盛宴。在精心布置的VR展台上,AMD技术产品支持下的沉浸感VR游戏,让参会者大呼过瘾。
跋文:作为行业领先的跨国企业,AMD不仅在产品和技术研发上走在前列,还非常重视企业社会责任。在近日发布的AMD第二十一期年度企业责任报告里,详述了AMD在社会责任和环境保护方面的进展。正如纪朝晖在此次论坛中提到的,AMD一直致力于为环保节能贡献力量,最大限度提升产品能效,比如计划到2020年将其加速处理单元(APU)的能源效率提升25倍等的充满责任感的企业目标。
相信如纪朝晖所说,VR在未来将引领创新的浪潮,带领我们进入下一个全新的“沉浸式”时代。而作为核心的上游芯片及系统提供商,AMD已经在VR领域全面铺展开来,并与生态系统伙伴共同引领并推动VR产业的发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。