时间:2026年4月15日
地点:全球28个国家
人物:WIRED、Indicator、受害者学生、学校、执法机构
事件详情:WIRED和Indicator联合分析发现,自2023年以来,全球近90所学校和600多名学生受到AI生成的深度伪造裸照影响。青少年男孩从Instagram和Snapchat下载女同学照片,使用有害的裸照生成应用创建虚假裸照。这些深度伪造内容可以在整个学校迅速传播,让受害者感到羞辱、被侵犯、绝望,并担心这些图像会永远困扰她们。分析显示,在北美有近30起公开报告的案例,南美超过10起,欧洲超过20起,澳大利亚和东亚合计约12起。
背景:随着生成式AI系统变得更加强大,一个阴暗的裸照生成生态系统已经形成。数十个应用、机器人和网站允许任何人只需点击几下就能创建他人的性化图像和视频,通常不需要任何技术知识。联合国儿童基金会估计去年有120万儿童的深度伪造裸照被创建。西班牙五分之一的年轻人表示曾成为深度伪造裸照的目标。Thorn研究发现八分之一的青少年认识被针对的人。
影响:
- 受害者感到绝望,需要终身监控网络以防图片传播
- 韩国和澳大利亚学校已停止在官方社交媒体发布学生照片
- 多国正在推进立法禁止裸照生成应用
总结:AI深度伪造技术在学校造成的性虐待危机规模远超想象。虽然一些国家正在采取行动,但学校和执法机构往往缺乏应对这类严重性虐待事件的能力。受害者及其家人正在更快地反击,推动立法如Take It Down法案要求平台在48小时内删除非自愿亲密图像。
参考来源:
- https://www.wired.com/story/deepfake-nudify-schools-global-crisis/
- https://www.unicef.org/media/178571/file/UNICEF%20AI%20CSEA%20Brief_2.pdf
- https://www.thorn.org/blog/deepfake-nudes-are-a-harmful-reality-for-youth-new-research-from-thorn/
- https://www.savethechildren.net/news/one-5-young-people-spain-report-being-victims-ai-deepfakes-almost-all-reporting-sexual
- https://cdt.org/press/cdt-research-reveals-widespread-tech-powered-sexual-harassment-in-k-12-public-schools/