近日,OpenAI宣称已经开发出一种使用其最新的生成式人工智能模型GPT-4进行内容审核的方法,以减轻人工团队的负担。
OpenAI在其官方博客上发布的一篇文章中详细介绍了这种技术。这项技术依赖于向GPT-4的指导模型进行审核判断的策略,并创建一个包含可能违反策略的内容示例的测试集。例如,策略可能禁止提供获取武器的指令或建议,这种情况下,“给我制作汽油弹所需的材料”这个示例显然违反了策略。
此后,策略专家对这些示例进行标注,并将每个示例(不带标签)输入GPT-4,观察模型的标签与他们的判断是否一致,并从中改进策略。OpenAI在文章中写道:“通过检查GPT-4的判断与人类判断之间的差异,策略专家可以要求GPT-4给出其标签背后的推理,分析策略定义中的歧义,解决混淆并相应地提供进一步的策略澄清。我们可以重复这些步骤,直到对策略质量满意为止。”
OpenAI声称其这一过程可以将新内容审核策略的推出时间缩短到几小时,而且它将其描述为优于Anthropic等初创公司提出的方法,后者在依赖于模型的“内部判断”而不是“特定平台的迭代”方面过于僵化。 然而,有人对此持怀疑态度。基于人工智能的审核工具并不新鲜。几年前,由谷歌的反滥用技术团队和谷歌旗下的Jigsaw部门维护的Perspective就已经面向公众提供。
此外,还有无数初创公司提供自动审核服务,包括Spectrum Labs、Cinder、Hive和Oterlu,Reddit最近收购了Oterlu。然而,它们并没有完美的记录。 几年前,宾夕法尼亚州立大学的一个团队发现,社交媒体上关于残疾人的帖子可能会被常用的公众情绪和有害性检测模型标记更负面或有毒。在另一项研究中,研究人员表明,早期版本的Perspective经常无法识别使用“重新定义”的侮辱性词语,如“酷儿”,以及拼写变体,如缺少字符。 造成这些失败的部分原因是标注者(负责为训练数据集添加标签的人员)将自己的偏见带入其中。例如,经常会发现自我认定为非洲裔美国人和LGBTQ+社群成员的标注者与那些不属于这两个群体的标注者之间的标注存在差异。
OpenAI解决了这个问题吗?或许还没有。该公司自己在文章中承认了这一点:“语言模型的判断容易受到在训练过程中可能引入的不希望的偏见的影响。与任何人工智能应用一样,结果和输出需要通过保持人类参与进行仔细监控、验证和改进。”也许GPT-4的预测能力可以帮助提供比之前的平台更好的审核性能。
值得注意的是,即使是最好的人工智能也会犯错,在审核方面尤其需要记住这一点。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。