社交媒体巨头Meta 近期正经历一场重大的审核机制变革,计划大幅度将人工风险评估工作转移至人工智能(AI)处理。美国国家公共广播电台(NPR)通过深度报道披露,Meta 内部文件显示,公司目标是让 AI 承担高达 90% 的风险评估任务。这一转变并非局限于普通内容,而是延伸至青少年保护和“诚信”领域,后者涵盖暴力、虚假信息等诸多敏感问题。

以往,Meta 旗下的 Instagram 和 WhatsApp 等平台在推出新功能或更新前,都需经过严格的人工审核流程,以确保用户安全和平台规范。然而,近两个月来,Meta 明显加速了 AI 技术的应用。目前,产品团队需要首先填写详细的调查问卷,然后由 AI 系统迅速给出潜在风险领域的反馈。只有在产品团队解决了 AI 提出的问题之后,产品才能正式发布。这种流程的调整,意在提高效率,但也带来新的挑战。
对于这种巨变,Meta 内部出现了不同的声音。接受 NPR 采访的多位现任及前任员工对 AI 的审核能力表达了担忧。他们认为,AI 可能无法像人类团队那样敏锐地捕捉到某些潜在的或严重的风险。一位前高管直言,审核力度的减弱实际上等同于“增加潜在风险”,新产品变更可能带来的负面影响更难在初期得到有效控制。这种担忧并非空穴来风,AI 在处理复杂、 nuanced 的社会议题时,的确存在局限性。
Meta 官方回应表示,公司并未完全放弃人工审核,而是将“人类专业知识”集中应用于处理“新颖且复杂的问题”,而将“低风险决策”交给 AI 处理。这种策略调整旨在提高审核效率,同时保持对关键问题的敏锐洞察力。Meta 的解释试图平衡效率与风险,但实际效果仍需进一步观察。
值得注意的是,Meta 近期发布了最新的季度诚信报告,这也是公司自年初调整内容审核和事实核查政策后的首次公开亮相。报告数据显示,政策调整导致被删除的内容数量有所减少。但与此同时,霸凌骚扰行为以及暴力和血腥内容的比例却略有上升。这一现象无疑引发了外界对 Meta 审核机制有效性的进一步关注。内容的减少并不意味着问题的解决,反而可能暗示着审核标准的宽松,从而导致不良内容的滋生。因此,Meta 在推进 AI 审核的同时,需要更加审慎地评估其对平台内容生态的影响,并及时调整策略,以确保用户安全和平台健康。