Peter Henderson,Tatsunori Hashimoto,Mark Lemley * Generative AI,特别是基于文本的“基础模型”(在包括Internet在内的大量信息中训练的大型模型)可能会在各种责任方面产生有问题的语音。机器学习从业人员定期“红色团队”模型来识别和减轻这种有问题的语音:从错误地指责人们严重不当行为的“幻觉”到建造原子弹的食谱。一个关键问题是,这些红色团队的行为是否实际上对根据美国法律规定的模型创建者和部署者构成了任何责任风险,从而激励对安全机制的投资。我们检查了三个责任制度,将它们与红色团队模型行为的常见例子联系在一起:诽谤,言语与犯罪行为不可或缺的言论和不法死亡。我们发现,任何第230节的免疫分析或下游责任分析都紧密包裹在算法设计的技术细节中。,还有许多障碍可以真正寻找模型(及其相关政党)的责任。我们认为,在这些情况下,AI不应明确免受责任,并且随着法院应对平台算法已经精细元素的复杂性,上面有索尼尔问题的生成AI织机的技术细节。法院和政策制定者应仔细考虑他们在评估这些问题时创造的技术设计激励措施。