零知识的培训证明(ZKPOT)允许一方证明在未揭示有关模型或数据集的任何其他信息的情况下,在授权的数据集上正确训练了模型。iSTAINT ZKPOT协议证明了整个培训过程中的零知识;也就是说,他们证明了最终模型是从训练数据和随机种子(并在其他其他参数上)开始的迭代方式获得的,并在每次迭代中应用正确的算法。 此方法本质上要求供者对迭代次数进行线性执行线性。 在本文中,我们采取了不同的方法来证明模型培训的正确性。 我们的方法是出于效率的动机,但也更加迫切地观察到,供者选择训练的随机种子的能力引发了其偏向模型的潜力。 换句话说,如果对训练算法的输入有偏见,那么即使卖者正确运行了训练算法,则最终的模型也会偏差。 我们没有证明训练过程的正确性,因此我们直接使用我们称为“最佳附近的概念”的训练模型的正确性,该概念界定了训练有素的模型与模型的数学上最佳模型之间的距离,这些模型可以将其视为解决方案,以作为解决方案优化问题的解决方案。 我们在理论上和实验上都表明,这确保了训练的模型与最佳模型的行为相似,并且表明对于现有方法而言是不正确的。iSTAINT ZKPOT协议证明了整个培训过程中的零知识;也就是说,他们证明了最终模型是从训练数据和随机种子(并在其他其他参数上)开始的迭代方式获得的,并在每次迭代中应用正确的算法。此方法本质上要求供者对迭代次数进行线性执行线性。在本文中,我们采取了不同的方法来证明模型培训的正确性。我们的方法是出于效率的动机,但也更加迫切地观察到,供者选择训练的随机种子的能力引发了其偏向模型的潜力。换句话说,如果对训练算法的输入有偏见,那么即使卖者正确运行了训练算法,则最终的模型也会偏差。我们没有证明训练过程的正确性,因此我们直接使用我们称为“最佳附近的概念”的训练模型的正确性,该概念界定了训练有素的模型与模型的数学上最佳模型之间的距离,这些模型可以将其视为解决方案,以作为解决方案优化问题的解决方案。我们在理论上和实验上都表明,这确保了训练的模型与最佳模型的行为相似,并且表明对于现有方法而言是不正确的。与现有的ZKPOT范式相比,我们还显示出显着的性能提高:在我们的协议中在ZK中证明的声明的大小与训练迭代的数量无关,而我们的布尔(分别算术)电路大小高达246×(分别为5×),比基线ZKPOT协议小的训练过程小于基线ZKPOT协议的小规模。
主要关键词