近日,OpenAI宣称已经开发出一种使用其最新的生成式人工智能模型GPT-4进行内容审核的方法,以减轻人工团队的负担。
OpenAI在其官方博客上发布的一篇文章中详细介绍了这种技术。这项技术依赖于向GPT-4的指导模型进行审核判断的策略,并创建一个包含可能违反策略的内容示例的测试集。例如,策略可能禁止提供获取武器的指令或建议,这种情况下,“给我制作汽油弹所需的材料”这个示例显然违反了策略。
此后,策略专家对这些示例进行标注,并将每个示例(不带标签)输入GPT-4,观察模型的标签与他们的判断是否一致,并从中改进策略。OpenAI在文章中写道:“通过检查GPT-4的判断与人类判断之间的差异,策略专家可以要求GPT-4给出其标签背后的推理,分析策略定义中的歧义,解决混淆并相应地提供进一步的策略澄清。我们可以重复这些步骤,直到对策略质量满意为止。”
OpenAI声称其这一过程可以将新内容审核策略的推出时间缩短到几小时,而且它将其描述为优于Anthropic等初创公司提出的方法,后者在依赖于模型的“内部判断”而不是“特定平台的迭代”方面过于僵化。 然而,有人对此持怀疑态度。基于人工智能的审核工具并不新鲜。几年前,由谷歌的反滥用技术团队和谷歌旗下的Jigsaw部门维护的Perspective就已经面向公众提供。
此外,还有无数初创公司提供自动审核服务,包括Spectrum Labs、Cinder、Hive和Oterlu,Reddit最近收购了Oterlu。然而,它们并没有完美的记录。 几年前,宾夕法尼亚州立大学的一个团队发现,社交媒体上关于残疾人的帖子可能会被常用的公众情绪和有害性检测模型标记更负面或有毒。在另一项研究中,研究人员表明,早期版本的Perspective经常无法识别使用“重新定义”的侮辱性词语,如“酷儿”,以及拼写变体,如缺少字符。 造成这些失败的部分原因是标注者(负责为训练数据集添加标签的人员)将自己的偏见带入其中。例如,经常会发现自我认定为非洲裔美国人和LGBTQ+社群成员的标注者与那些不属于这两个群体的标注者之间的标注存在差异。
OpenAI解决了这个问题吗?或许还没有。该公司自己在文章中承认了这一点:“语言模型的判断容易受到在训练过程中可能引入的不希望的偏见的影响。与任何人工智能应用一样,结果和输出需要通过保持人类参与进行仔细监控、验证和改进。”也许GPT-4的预测能力可以帮助提供比之前的平台更好的审核性能。
值得注意的是,即使是最好的人工智能也会犯错,在审核方面尤其需要记住这一点。
好文章,需要你的鼓励
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。