Deepfake 性勒索迫使学校从网站上删除学生照片

在人工智能深度造假导致英国学校发生性勒索案件后,专家敦促学校删除学生的可识别照片。

来源:Malwarebytes Labs 博客

学校喜欢一张好照片,无论是城堡之旅、科学颁奖典礼还是从三个角度拍摄的运动会照片。二十年来,像这样的庆祝图片直接出现在学校网站上,标题是名字和成绩。但那些日子已经一去不复返了,因为 2026 年是互联网,我们不能再拥有美好的东西了。

正如《卫报》首先报道的那样,专家现在敦促学校撤下这些照片。据英国国家犯罪局、互联网观察基金会和早期预警工作组 (EWWG) 的咨询机构称,勒索者一直在抓取普通的学校照片,通过人工智能深度伪造工具将其提供给制造儿童性虐待材料 (CSAM),并要求付费才能使图像离线。

一所学校,150 张图片

去年年底,网络犯罪分子联系了一所未透露姓名的英国中学,提出了这一要求。根据英国法律,IWF 将其中的 150 张图像归类为 CSAM,并为每张图像生成数字指纹,以便主要平台可以阻止重新上传。

IWF 没有透露学校或警察部队的名称,也不认为这是一个孤立的案例。 EWWG 表示,更多学校面临类似要求“只是时间问题”。

英国安全大臣杰西·菲利普斯 (Jess Phillips) 称其为“令人深感担忧的新兴威胁”。 2025 年 2 月,英国成为第一个禁止专门用于生成 CSAM 的人工智能工具的国家。

我们是如何到达这里的

这种威胁并不是一夜之间出现的,而且不仅限于英国。这是一种长期威胁的演变:性勒索,即有人使用亲密图像来勒索你。传统上,性勒索依赖于被盗或分享的真实私密图像,但 Deepfake AI 改变了一切。

例如,一名 15 岁女孩收到了一张根据她的 Instagram 照片制作的“非常令人信服”的假裸体。

学校被告知的内容

事实上,它建议学校重新考虑是否需要在网上发布儿童的照片。

接下来会发生什么