
Illustration by Nick Barclay / The Verge
据《华尔街日报》报道(https://www.theverge.com/23610427/chatbots-chatgpt-new-bing-google-bard-conversational-ai),Meta一直在抢购人工智能训练芯片并建设数据中心,以创建一个更强大的新聊天机器人,它希望能像OpenAI的GPT-4一样精密。据报道,该公司计划在2024年初开始培训新的大型语言模型,首席执行官Mark Zuckerberg计划继续以开源模式(https://www.theverge.com/2023/7/18/23799025/meta-ai-llama-2-open-source-microsoft)发布新模型,因此其他公司可以免费使用这类人工智能工具。
《华尔街日报》写道,Meta一直在购买更多的英伟达H100人工智能训练芯片,并正在加强其基础设施建设,以便这一次,它不需要依赖微软的Azure云平台来训练新的聊天机器人。该公司今年早些时候组建了一个小组来构建该模型,目的是加快创建可以模仿人类表情的人工智能工具。
据报道,Meta今年在多个LLM项目之间分配了大量的计算资源,导致人工智能研究人员流失。它还面临着生成人工智能领域的激烈竞争。OpenAI在4月份表示,它没有训练GPT-5,而且“在一段时间内不会”,但据报道,苹果每天都在向自己的“Ajax”人工智能模型投入数百万美元,它显然认为该模型甚至比GPT-4更强大。谷歌和微软都在扩大人工智能在其生产力工具中的使用,谷歌希望在谷歌助手中使用生成人工智能。亚马逊在其整个组织中也有生成性人工智能计划,可能会产生一个聊天机器人驱动的Alexa。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。