至顶网服务器频道 04月24日 新闻消息(文/李祥敬):在近日举行的QCon全球软件开发大会上,极客邦科技总裁池建强与CODING创始人兼CEO张海龙宣布双方正式达成战略合作,共同推进开发者社区的发展。双方将通过会议、活动、高端社交、用户活动联合营销等方式为开发者提供福利,以优势互补、资源共享为主,谋求共赢,积极助力技术生态圈的快速发展。
此次,极客邦科技和CODING将在开发者技术成长以及企业研发管理领域做更多的探讨。双方均多年服务于开发者群体以及软件研发团队,对中国企业所碰到的软件研发管理、技术人成长管理方面的问题有深刻理解。
基于这些痛点,双方合作将扩大双方服务的受众面,从企业和个人的层面为技术从业者提供全方位的服务,将双方优势资源释放,相互赋能,让创新技术提升企业与个人的能力,增强技术壁垒,助力技术圈生态良好发展,推动社会进步。
极客邦科技总裁池建强(左)与CODING创始人兼CEO张海龙(右)
池建强表示,CODING一直为开发者提供优秀的工具和服务,而极客邦科技在技术社区耕耘了十余年,通过课程、会议、培训、图书等为开发者提供IT综合知识服务,于2017年10月正式发布国内第一款IT知识服务产品——极客时间App。
极客邦科技通过十余年的社区运营经验,积累了百万级的中高端技术开发者,拥有覆盖千万级开发者的内容策划能力,以“让创新技术推动社会进步”为使命。"我们在2018年双方能在内容和工具有更好的合作,为开发者提供更精彩的服务。比如极客邦科技未来会推出在线编程教学或者是类似编程直播的产品,这些都可以借助CODING 的工具来实现。"池建强说。
CODING是国内首个一站式云端软件服务平台,目前已累积80万开发者用 户,150万个私有项目。秉承着“让开发更简单”的使命,将代码托管、项目管理、Cloud Studio、一键部署等开发工具集成到浏览器中,免除繁杂的开发环境部署,降低开发和部署软件的成本,提升团队协作沟通效率,提高软件开发生产力,最终实现 “Coding Anytime Anywhere” 的愿景。
张海龙表示,CODING今年将与极客邦科技的合作更加深入,我们希望能够为开发者群体提供更好的服务,联合打造中国的良性循环的开发者生态。
谈及双方的合作,张海龙说,在服务开发者过程中,我们发现他们有学习和成长的诉求。而CODING推出的Cloud Studio非常适合教育的场景。CODING也在跟一些高校培训机构开展合作,包括跟极客邦科技把这些内容跟Cloud Studio进行整合。
据悉,Cloud Studio是Coding WebIDE升级版本,其为开发者提供了一个永不间断的云端工作站。不管有没有开发经验都可以毫无门槛地体验云端开发的乐趣,支持绝大部分编程语言,包括HTML5、PHP、Python、Java、Ruby等等。Cloud Studio提供了完整的Linux环境,并且支持自定义域名指向,动态计算资源调整,开发者可以完成各种应用的开发编译与部署。
池建强补充说,极客邦科技希望通过APP知识服务平台为更广大人群提供技术、认知的服务,提高开发者研发管理的能力、效力和软件生产的质量。
应该说,极客邦科技与CODING是一种双赢的合作,因为他们共同服务技术生态圈,一个专注于内容,一个专注于工具和服务。两者的结合,可以让开发者更好地进行交流,将这些技术人员进行有效连接,进而产生出伟大的产品,真正打造一个良性循环的开发者生态体系。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。