生成式人工智能的兴起正在改变数字图像的格局,并对在线创意社区产生重大影响。这导致了人工智能生成内容 (AIGC) 社交平台的出现,例如 Civitai。这些独特的社交平台允许用户构建和分享自己的生成式人工智能模型,从而增强了更多样化艺术表达的潜力。它们以社交网络的风格设计,还为艺术家提供了展示其作品(从模型生成)、参与讨论和获得反馈的手段,从而培养了社区意识。然而,这种开放性也引发了人们对此类平台滥用的担忧,例如使用模型传播欺骗性的深度伪造或侵犯版权。为了探索这一点,我们对 AIGC 社交平台进行了首次全面的实证研究,重点关注其用于生成滥用内容的情况。作为示例,我们构建了一个涵盖最大的 AIGC 社交平台 Civitai 的综合数据集。基于这个包含 87K 个模型和 2M 张图像的数据集,我们探索内容的特征并讨论审核策略以更好地管理这些平台。
摘要AI开发社区越来越多地利用托管中介机构(例如拥抱面孔),可以轻松访问用户上传的模型和培训数据。这些模型市场降低了数十万用户的技术部署障碍,但可以以许多潜在的有害和非法方式使用。在本文中,我们解释了既可以“包含”内容又可以是开放式工具的AI系统的方式,这是迄今为止最棘手的平台治理挑战之一。我们提供了三个说明性平台(拥抱面,github和civitai)的几起事件的案例研究,以检查模型市场模型中等模型。在此分析的基础上,我们概述了行业正在发展以响应节制需求的重要(但仍然有限)的实践:许可,访问和使用限制,自动化内容审核以及开放的政策制定。虽然手头的政策挑战是一个相当大的挑战,但我们以一些想法得出了一些想法,即平台如何更好地动员资源来充当谨慎,公平和按比例的监管访问点。
