详细内容或原文请订阅后点击阅览
META计划用AI代替人类以评估隐私和社会风险
现任和前META员工担心新的自动化推动是有代价的,以允许AI对Meta的应用程序如何造成现实世界的伤害做出棘手的决定。
来源:NPR _经济人们在加利福尼亚州门洛帕克公司总部外的 Meta 标牌附近交谈。Jeff Chiu/美联社隐藏标题栏
杰夫·邱/美联社 隐藏标题 切换标题多年来,当 Meta 为 Instagram、WhatsApp 和 Facebook 推出新功能时,审核团队都会评估可能存在的风险:它会侵犯用户的隐私吗?会对未成年人造成伤害吗?它会加剧误导性或有毒内容的传播吗?
直到最近,Meta 内部所谓的隐私和完整性审查几乎完全由人类评估人员进行。
但现在,根据 NPR 获得的公司内部文件,高达 90% 的风险评估将很快实现自动化。
实际上,这意味着 Meta 算法的关键更新、新的安全功能以及如何在公司平台上共享内容的更改等内容将大部分由人工智能驱动的系统批准 - 不再受到负责讨论平台更改如何产生不可预见的影响或被滥用的工作人员的审查。
在 Meta 内部,这一变化被视为产品开发人员的胜利,他们现在可以更快地发布应用程序更新和功能。但 Meta 现任和前任员工担心,新的自动化推动的代价是让人工智能对 Meta 的应用程序如何导致现实世界造成伤害做出棘手的决定。
一位前 Meta 高管表示:“从功能上来说,这个流程意味着更多的产品可以更快地推出,而且审查和反对的力度不那么严格,这意味着你正在创造更高的风险。”由于担心遭到公司报复,他要求匿名。 “产品变化的负面外部性在开始给世界带来问题之前不太可能被阻止。”
Meta在一份声明中表示,它已投入数十亿美元来支持用户隐私。
手表下