4月20日,在北京国际会议中心举办的QCon全球软件开发大会上,极客邦科技总裁池建强宣布,旗下高端技术领导者聚集和交流的组织——TGO鲲鹏会将于美国时间4月21日14:00正式启动硅谷分会,由ScaleFlux创始人钟浩担任分会会长。届时,极客邦科技创始人兼CEO、TGO鲲鹏会校长霍泰稳将与CliQr(acquired by Cisco)联合创始人兼CTO傅天瀛、博通(Broadcom)副总裁Yuan Xing Lee、WeHome联合创始人文航、以及Tubi TV研发副总裁陈天一起作为嘉宾做主题分享,解读技术现状和未来趋势,与会员交流心得。
TGO鲲鹏会原名EGO,是一个汇聚全球技术领导者的高端社群。为了更好地服务全球范围内的技术领导者,在2018年初,EGO正式更名为TGO(Top Geeks'Organization),中文名鲲鹏会。TGO鲲鹏会希望让所有孤军奋战的技术领导者都找到属于自己的圈子,在这里冲破职业晋升道路中的成长局限、搭建快速连接每一个技术管理者的沟通桥梁、打破传统企业与互联网企业之间的技术壁垒、探索业务与技术交融下产生的无限可能。
截至2018年4月初,TGO鲲鹏会已经在北京、上海、杭州、深圳、广州、成都等六个城市开设分会,同时会员已经覆盖天津、武汉、南京、苏州、无锡、重庆、珠海、厦门等城市;2018年,TGO鲲鹏会计划拓展南京、厦门、台北、香港、硅谷等分会,联结全球的技术领导者一起学习和成长。此次硅谷分会的成立便是2018年全球拓展战略的有力一步。
极客邦科技总裁池建强在QCon现场宣布TGO鲲鹏会硅谷分会成立
TGO鲲鹏会的使命是联结杰出的技术领导者学习和成长,愿景是组建全球最具影响力的技术领导者社交网络。自成立之初,TGO鲲鹏会一直践行着这样的原则,用实际行动完成着使命,向愿景前行。
TGO鲲鹏会采用了“会员共建”的组织形式,希望通过“共建、自治”的方式维护各城市分会的健康发展,为会员提供必要的服务,帮助会员个人更好地学习和成长,帮助会员企业之间更好地合作和交流,进而促进创新技术和商业更好地融合,让创新技术推动社会进步。2018年,TGO鲲鹏会在各地分会建立了以当地会员为核心的董事会。TGO鲲鹏会各分会董事会成员,都是加入一年以上的会员,他们认同TGO鲲鹏会的理念,愿意为TGO鲲鹏会和技术领导者的学习交流贡献自己的时间和精力。
这是TGO鲲鹏会的不同之处与魅力所在,当所谓的“组织规定”变成一件每个人都愿意自驱动去做的事,它所产生的力量将不可估量。
极客邦科技(Geekbang)创立于2007年,是最早将世界前沿技术资讯带到国内的知识内容平台之一,在2016年实现了对技术媒体InfoQ大中华区业务的收购,以让创新技术推动社会进步为使命。极客邦科技始终践行将最前沿、最高端的技术传递给需要的人,为促进国内国际技术交流和发展贡献着自己的力量。
对于极客邦科技来说,组织国际间的技术交流活动可谓驾轻就熟。此前,极客邦科技在此前就曾多次主办过「中国技术开放日(ChinaTech Day)」活动——带领国内的技术领导者前往美国、日本等国家,与全球技术人联动,打通更多国际优质资源,打造全球领先的技术人学习和交流平台。这也为极客邦科技旗下的高端技术人社交平台TGO鲲鹏会在硅谷建立分会埋下了种子。
TGO鲲鹏会发起人、极客邦科技创始人兼CEO霍泰稳曾数次提到自己“三步走”的战略目标:
TGO鲲鹏会硅谷分会的建立为“三步走”的第二步打下了夯实基础,在技术发展快速更迭的今天,只有扩大知识面,掌握全球范围内的技术信息,才能让技术更好地落地并服务于人。期待极客邦科技和TGO鲲鹏会在技术推动史上留下自己的辉煌一笔。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。