最近的人工智能(AI)激增,其特征是大型语言模型(LLM)的突出性,已迎来了全球的基本转变。,除了这些进步之外,围绕LLMS合法性的担忧已经增长,对其广泛的应用构成了法律挑战。加剧了这些关注点,LLM的参数通常被视为知识产权,限制了直接调查。在本研究中,我们解决了AI立法领域中的基本挑战:建立LLMS产生的产出的真实性的必要性。为了解决这个问题,我们提出了ZKLLM,它是为我们所知的为LLMS量身定制的首届专业零知识证明。解决深度学习中非偏心操作的持续挑战时,我们介绍了Tlookup,这是一个平行的查找参数,专为深度学习中的非偏振量张量操作而设计,提供了一个没有渐近性高架的解决方案。此外,在利用Tlookup的基础上,我们介绍了Zkattn,这是一种专门的零知识证明,为注意机制而设计,精心平衡运行时间,内存使用和准确性的考虑。在我们完全并行的CUDA实现的能力下,ZKLLM旨在在LLMS上实现有效的零知识可验证计算的重要大步。非常重要的是,对于拥有130亿个参数的LLMS,我们的方法可以在15分钟内为整个推理过程提供正确的证明。由小于200 kb的最终证明旨在维护模型参数的隐私,从而确保没有无意的信息泄漏。
摘要 - 大型语言模型(LLM)引起了人们的重大关注,因为它们显示出人工通用智能(AGI)的令人惊讶的迹象。人工智能和大型语言模型可用于各种良好目的,例如用于创造知识的数字助手。但是,如此强大的模型也可以具有潜在的风险。除其他问题和风险外,AI模型可以对数据和用户构成的安全和隐私风险。在本文中,我们讨论了多项式和矢量空间等数学结构以及多项式和矩阵矢量函数的隐私保留委派如何用于将计算模型(包括LLMS)转换为隐私保护计算模型。此外,我们重点介绍了一些众所周知的加密结构以及一些可以改进LLM的解决方案,从某种意义上说,它们可以保留数据的隐私和安全性以及用户。总体而言,我们在本文中介绍的隐私性和零知识LLM可能是潜在的解决方案,可以在某种程度上且合理地保留数据和用户的隐私。更重要的是,也许应该对AI模型进行公开可信的数据培训;训练有素的模型应在当地被压缩和使用。索引术语 - 私有的计算,私人多样性计算,隐私提供大语言模式,安全计算,完全同源性加密,Peovacy-Preservice机器学习,零知识范围,零知识模型,可信度的AI,可靠的AI,安全和隐私风险