作为智能领域最具潮流的科技盛会,一年一度的雷克大会又要开始了!
随着行业大咖们的陆续加入,雷克大会的规模正在逐步扩大。与去年相比,今年的雷克大会选在了大力发展人工智能产业的天津市(天津赛象酒店),活动日程延长至两天(7月10日至11日)。本届雷克大会主题为“智能先行,雷克引领”,不仅有一场主论坛和三场分论坛(智能机器人创新峰会、人工智能创新峰会、区域生产力论坛),还有人工智能产业创新联盟第二届成员大会、产业需求对接会、雷克奖评选、新奇特产品发布,以及雷克嘉年华炫酷产品的展示互动。
据悉,人工智能产业创新联盟由中国电子信息产业发展研究院(工信部赛迪研究院)牵头成立,是中国首个国家级的人工智能联盟,目前已拥有超过260家会员。联盟以服务行业、推动创新、推广应用、推进企业发展为宗旨,搭建人工智能产业创新合作与对接平台,整合各类产业资源,提供产业公共服务。
这样一场众星璀璨、产品酷炫、声势浩大的活动即将拉开帷幕,现在登录雷克大会官网(http://www.raictech.com)进行报名,即可参与其中,成为“雷克家族”的一分子!不要迟疑,快与身边的朋友一同打开探索的大门,共同感受前沿科技的魅力。
随着《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等政策相继出台,人工智能在我国迎来了空前良好的发展机遇,各种新技术、新产品、新应用逐渐融入人们的生活,越来越多的人希望认识、了解人工智能,而雷克大会正是提供了一个全方位展现人工智能魅力及发展前景的公众平台。
雷克大会的影响力如何?首届雷克大会于2017年在北京成功举办,百余名重磅嘉宾悉数到场,政府领导、企业领袖、院士专家、资本机构、创业者齐聚一堂,奉献了30余场高质量权威演讲,吸引了数千名观众亲临现场,视频直播、图文直播同步传送,传播受众超百万人次。会后,机器人、人工智能概念股大涨,雷克大会一举成为智能领域的年度盛会!
本届雷克大会主论坛设置了前沿新品、技术、解决方案、产业应用展示环节,与大会主论坛深度融合,让现场嘉宾全方位体验智能科技给人类生活带来的改变,帮助企业以更全方位的形式推广相关应用。
智能机器人创新峰会将成为融汇行业顶级智慧的领袖级峰会,峰会通过最具战略性的观点、最新奇的产品、最富有建设性的建议,引领我国机器人产业的前沿发展。
人工智能创新峰会将汇集产业内的顶尖专家学者、行业先锋,探讨当下人工智能面临的技术、未来趋势,发现当下存在的问题,提出具有见解的想法,发布最前沿的战略布局,推动人工智能产业在我国的创新,促进人工智能更好更快发展。
区域生产力论坛将专注于汇聚推动我国产业发展的影响力机构,包括地方政府、产业园区、领军企业,同时还将汇聚对机器人与人工智能技术有强烈需求的转型中的传统大型企业,为智能终端产品、传统产业智能化改造、智能化应用等智能科技重点领域,提出问题,解决问题,在智能科技产业发展的重大战略机遇期,促使人工智能和实体经济快速深度融合,实现重点领域重点突破。
人工智能产业创新联盟第二届成员大会将对首届理事会做工作报告,包括对理事长单位、副理事长单位和理事单位,以及成员单位在第一届联盟工作中所作出的成绩进行总结,同时审议第二届联盟理事会、专家委员会名单,并制定第二届联盟工作方案。
此外,大会将邀请百度、微软、英特尔、SAP、科大讯飞、科沃斯、华为等联盟企业,分享他们对先进技术和行业前景的观点与感悟,传播最具影响力的内容。
大会期间,人工智能产业创新联盟还将邀请天津市滨海新区以及天津滨海高新区的各级政府领导与联盟成员实现务实对接,为企业、科研机构、专家解读最新的产业政策及相关资源,帮助机器人与人工智能产业应用加速落地。
雷克大会不仅是一场关于机器人和人工智能的思想盛会,更是一场属于前沿科技工作者和黑科技“发烧友”的纵情狂欢。相比于往届而言,本届雷克大会规模更大、阵容更强、内容更多、影响力更广,受到了社会各界的广泛关注与期待。
雷克大会将会使更多人感受到智能时代对于自身的深远意义及影响,让“雷克”成为一种精神,一种文化,引领智能时代新风尚。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。