自 2018 年以来,PAI 一直通过与行业、媒体、民间社会和学术利益相关者的合作,致力于制定有关深度伪造和其他合成媒体的规范性指导——包括对深度伪造检测机器学习竞赛的管理、对观众如何反应被操纵的媒体标签的研究,甚至如何思考给 AI 内容加水印。2023 年 2 月,PAI 发布了《合成媒体负责任实践:集体行动框架》,这是一项技术政策,旨在探索那些创建、开发和分发合成媒体的人如何负责任地做到这一点。这项工作源于一个协作起草过程,该过程有 100 多个全球利益相关者参与,他们正在考虑一套共同的价值观、策略和实践,以对合成媒体进行负责任的治理。该框架得到了 18 家领先的技术、民间社会和媒体机构的支持,包括 OpenAI、BBC、Bumble、Adobe、TikTok、WITNESS 等。