abtract-在过去的一年中,大语言模型(LLM)和人工智能(AI)在文本生成中的普遍作用引起了人们对道德使用,作者身份和透明归因的关注。在法律实践,学术界和企业界以及无数其他领域都是如此。在本文中,我们确定了那些要求适当披露的人(我们应该知道何时何地AI是作者)和努力应对这些要求的人之间的差距。问题的一部分是没有系统,没有通用语言,没有用于这种披露的规范。在早期的Aughts中,类似的差距威胁着版权法,法律学者在创意共享中伪造了解决方案。现在,具有相似的形式但具有独特的物质和功能,我们介绍了AIA(人工智能归因),该系统适当且无缝地归因于AI文本作者身份。该系统涉及使用描述AI参与性质的徽章,从研究到编辑。除了填补上面确定的基本差距外,AIA与生成AI的益处至少三倍:(i)最大程度地减少AI使用的法律风险(即来自合同,消费者保护和知识产权和知识产权的法律暴露); (ii)管理公众对AI使用的看法; (iii)促进道德行为。我们从理论和经验镜头中讨论了这些好处。“经验”,我们指的是我们为审查AIA进行的原始实验研究。我们的发现表明,使用AIA的使用,增强了人工智能作者身份的归因,可以改善公众的看法并降低法律风险。在讨论了这些好处后,我们提供了三个示例,涉及AIA徽章的外观
