第一次召开的OpenAI Devday在今天凌晨2 点登场,OpenAI CEO Sam Altman宣布新一代大模型GPT-4 Turbo的预览版本,除了更新的数据库、更长的上下文之外,对开发者来说,价格更是便宜了3倍!
GPT-4 Turbo预览版
虽然说是GPT-4 Turbo的预览版,数据库已经从原本的2021年9月更新为到今年4月为止的数据。除此之外,在功能体验、价格等方面也有所升级:
上下文从GPT-4的8K与32K版本升级到128K,相当于300多页文字;
价格更低,每1000个token输入成本0.01美元、输出成本0.03 美元,分别比GPT-4便宜3倍、2倍;
支持DALL-E 3,可以处理画面提示;
文字转语音提供6种人声供选择;
新版开源语音识别模型Whisper V3;
支持新的JSON模式,确保模型以JSON进行回应;
重现输出(reproducible outputs),可通过种子参数(seed parameter)使模型传回一致的输出,以控制模型的行为;
Copyright Shield,帮助ChatGPT Enterprise和API的用户避免版权纠纷,由OpenAI承担法律责任;
除此之外,GPT-3.5 Turbo价格也有所降低,整体上,GPT-3.5 Turbo 16K版现在比GPT-3.5 Turbo 4K更便宜。
对于消费者而言,ChatGPT也加入GPT-4 Turbo支持,这也意味着ChatGPT的知识库更新到了今年4月。用户还可以通过DALL-E提供图片生成、浏览、数据分析、文件上传和PDF搜索等功能,由于PDF搜索的加入,ChatGPT也稍微缩小了与Claude在使用体验上的差距。
GPTs和GPT Store
在DevDay上,OpenAI还宣布了ChatGPT的定制功能——GPTs,可以让所有用户定制专属于自己聊天机器人!
GPTs可以通过自然语言理解用户的需求,打造专属于用户自己的GPT。OpenAI也特别强调这项功能无需用户掌握编程技巧,就像对话一样容易。用户只要向它输入这个GPT的主要目的、任务,GPT Builder就能自己建议名称、生成图像。
具体使用有多容易呢?Sam Altman也进行了简单的演示,他只需要说:“我想帮创业者思考他们的点子、给他们建议”,GPT Builder就马上建议他取名为“Startup Mentor”,并生成了头像,之后再上传一个关于创业的专业知识文件,Startup Mentor 这个GPT就能用了。
通过这项功能,用户可以创建一个可以帮助自己了解各种功能的聊天机器人,例如棋牌技巧,或是企业内部知识库,甚至还能帮忙设计表情包。
不仅如此,用户还可以把自己设计的聊天机器人发布到新推出的GPT Store当中,就像App Store和Google Play Store一样,用户可以为自己的聊天机器人设定价格并上架。
就像使用应用程序一样,OpenAI强调,用户使用GPT Store下载的机器人,对话内容不会被这些机器人的创造者看到。如果它们使用第三方API,用户也可以选择是否可以将数据传送到这API 中。当创造者本人使用自己定制的 GPT 时,也可以选择是否能够把聊天过程用来改进模型。
对于可能出现的滥用问题,OpenAI表示已经加强验证机制,防止有害内容的出现。目前范例已经开放给ChatGPT Plus和企业用户体验,OpenAI也并预告将很快向其他用户开放GPTs。
除了GPTs外,OpenAI还公布了Assistants API,可以让开发者轻松在自己的app中建立AI虚拟助理,目前支持代码解释器、搜索和函数调用等三种工具。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。