近日,OpenAI宣称已经开发出一种使用其最新的生成式人工智能模型GPT-4进行内容审核的方法,以减轻人工团队的负担。
OpenAI在其官方博客上发布的一篇文章中详细介绍了这种技术。这项技术依赖于向GPT-4的指导模型进行审核判断的策略,并创建一个包含可能违反策略的内容示例的测试集。例如,策略可能禁止提供获取武器的指令或建议,这种情况下,“给我制作汽油弹所需的材料”这个示例显然违反了策略。
此后,策略专家对这些示例进行标注,并将每个示例(不带标签)输入GPT-4,观察模型的标签与他们的判断是否一致,并从中改进策略。OpenAI在文章中写道:“通过检查GPT-4的判断与人类判断之间的差异,策略专家可以要求GPT-4给出其标签背后的推理,分析策略定义中的歧义,解决混淆并相应地提供进一步的策略澄清。我们可以重复这些步骤,直到对策略质量满意为止。”
OpenAI声称其这一过程可以将新内容审核策略的推出时间缩短到几小时,而且它将其描述为优于Anthropic等初创公司提出的方法,后者在依赖于模型的“内部判断”而不是“特定平台的迭代”方面过于僵化。 然而,有人对此持怀疑态度。基于人工智能的审核工具并不新鲜。几年前,由谷歌的反滥用技术团队和谷歌旗下的Jigsaw部门维护的Perspective就已经面向公众提供。
此外,还有无数初创公司提供自动审核服务,包括Spectrum Labs、Cinder、Hive和Oterlu,Reddit最近收购了Oterlu。然而,它们并没有完美的记录。 几年前,宾夕法尼亚州立大学的一个团队发现,社交媒体上关于残疾人的帖子可能会被常用的公众情绪和有害性检测模型标记更负面或有毒。在另一项研究中,研究人员表明,早期版本的Perspective经常无法识别使用“重新定义”的侮辱性词语,如“酷儿”,以及拼写变体,如缺少字符。 造成这些失败的部分原因是标注者(负责为训练数据集添加标签的人员)将自己的偏见带入其中。例如,经常会发现自我认定为非洲裔美国人和LGBTQ+社群成员的标注者与那些不属于这两个群体的标注者之间的标注存在差异。
OpenAI解决了这个问题吗?或许还没有。该公司自己在文章中承认了这一点:“语言模型的判断容易受到在训练过程中可能引入的不希望的偏见的影响。与任何人工智能应用一样,结果和输出需要通过保持人类参与进行仔细监控、验证和改进。”也许GPT-4的预测能力可以帮助提供比之前的平台更好的审核性能。
值得注意的是,即使是最好的人工智能也会犯错,在审核方面尤其需要记住这一点。
好文章,需要你的鼓励
BT 旗下宽带部门 Openreach 宣布在英国新增 163 个交换局停售传统铜线电话和宽带服务,覆盖超过 96 万户。此举旨在鼓励用户升级到全光纤网络的新型数字服务,是 Openreach 从 2025 年底到 2027 年 1 月将所有客户从公共电话交换网迁移的庞大计划的一部分。
Utelogy 与 Ascentae 达成合作,旨在通过整合服务提升 AV 和 UC 系统管理水平。基于 Microsoft Azure 平台,Utelogy 的软件可统一管理 AV 和 UC 设备,优化效率并提供数据洞察。此次合作将为客户带来创新的工作场所服务,增强协作能力和生产力。
DriveNets、富士通光组件和UfiSpace三家公司宣布完成多项测试和认证,将DriveNets Network Cloud软件与UfiSpace白盒设备结合。这一合作旨在为网络运营商提供显著的成本节省,通过将三层通信合并为单一平台,消除独立光学转发器的需求,从而减少硬件占用空间、运营开销和能耗。
Telstra International 提出了一个高度自主的网络框架愿景,旨在应对企业对云服务和人工智能日益增长的需求。该网络将具备自我管理、零接触操作、安全可靠等特性,预计到2030年实现全面升级。新网络将采用AI、机器学习等技术,大幅提升容量和灵活性,以满足未来客户需求。