Instagram 在 2018 年标记了向未成年人发送露骨信息。六年后,图像模糊出现了

未密封的法庭记录显示,在模糊功能推出之前几年,Instagram 高管就曾讨论过向青少年传达露骨信息。

来源:Malwarebytes Labs 博客

根据新近公开的法庭文件,Meta 花了六年时间才模糊了 Instagram 上的露骨图像,尽管内部电子邮件显示高管们在 2018 年就意识到未成年人正在接收这些图像。

在去年的一份证词中,Adam Mosseri(现任 Instagram 负责人)与时任 Meta 副总裁兼首席信息安全官 Guy Rosen 讨论了一封电子邮件。罗森在帖子中解释说,成年人可以在该平台上找到未成年人并向其发送消息。这些消息可能包含罗森所说的内容:

“二级性骚扰,比如男人向每个人发送鸡巴照片”

最多...

“第一级案例,他们最终造成了可怕的损害。”

Meta 现在用来解决这个问题的工具是一个客户端分类器,它可以自动模糊通过直接消息发送给青少年的露骨图像。但直到那次电子邮件交流大约六年后,也就是 2024 年 9 月,它才推出。

证词已于上周启封,并于 2026 年 2 月 20 日在 MDL 第 3047 号(案件编号 4:22-md-03047-YGR)中提交,这是北加州的一个跨区诉讼案件,数百个家庭在该案件中指控 Instagram 等平台旨在最大化屏幕时间,以牺牲年轻用户的福祉为代价。该文件可通过法院的 PACER 案卷查阅。

该文件还披露了 Instagram 保密的内部调查数据。近五分之一的 13 至 15 岁受访者表示在平台上遇到过不受欢迎的裸体或性图像。另外 8.4% 的人表示,过去一周内,他们在 Instagram 上看到有人伤害自己或威胁要这样做。

Instagram自己的透明中心当时没有透露这一点。其儿童危害部分简单地表示,该公司仍在研究这些数字。 Mosseri 还证实,他从未公开透露过内部估计每天有大约 20 万儿童用户经历不适当的互动,这一数字在询问期间被引用。