Meta计划大幅依赖AI进行产品风险评估,人工审核将何去何从?

社交媒体巨头Meta 近期正经历一场重大的审核机制变革,计划大幅度将人工风险评估工作转移至人工智能(AI)处理。美国国家公共广播电台(NPR)通过深度报道披露,Meta 内部文件显示,公司目标是让 AI 承担高达 90% 的风险评估任务。这一转变并非局限于普通内容,而是延伸至青少年保护和“诚信”领域,后者涵盖暴力、虚假信息等诸多敏感问题。

Meta计划大幅依赖AI进行产品风险评估,人工审核将何去何从?

以往,Meta 旗下的 Instagram 和 WhatsApp 等平台在推出新功能或更新前,都需经过严格的人工审核流程,以确保用户安全和平台规范。然而,近两个月来,Meta 明显加速了 AI 技术的应用。目前,产品团队需要首先填写详细的调查问卷,然后由 AI 系统迅速给出潜在风险领域的反馈。只有在产品团队解决了 AI 提出的问题之后,产品才能正式发布。这种流程的调整,意在提高效率,但也带来新的挑战。

对于这种巨变,Meta 内部出现了不同的声音。接受 NPR 采访的多位现任及前任员工对 AI 的审核能力表达了担忧。他们认为,AI 可能无法像人类团队那样敏锐地捕捉到某些潜在的或严重的风险。一位前高管直言,审核力度的减弱实际上等同于“增加潜在风险”,新产品变更可能带来的负面影响更难在初期得到有效控制。这种担忧并非空穴来风,AI 在处理复杂、 nuanced 的社会议题时,的确存在局限性。

Meta 官方回应表示,公司并未完全放弃人工审核,而是将“人类专业知识”集中应用于处理“新颖且复杂的问题”,而将“低风险决策”交给 AI 处理。这种策略调整旨在提高审核效率,同时保持对关键问题的敏锐洞察力。Meta 的解释试图平衡效率与风险,但实际效果仍需进一步观察。

值得注意的是,Meta 近期发布了最新的季度诚信报告,这也是公司自年初调整内容审核和事实核查政策后的首次公开亮相。报告数据显示,政策调整导致被删除的内容数量有所减少。但与此同时,霸凌骚扰行为以及暴力和血腥内容的比例却略有上升。这一现象无疑引发了外界对 Meta 审核机制有效性的进一步关注。内容的减少并不意味着问题的解决,反而可能暗示着审核标准的宽松,从而导致不良内容的滋生。因此,Meta 在推进 AI 审核的同时,需要更加审慎地评估其对平台内容生态的影响,并及时调整策略,以确保用户安全和平台健康。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2025年 6月 1日 上午8:01
下一篇 2025年 6月 1日 上午9:35

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!