论大型人工智能模型不可能的安全性
机构名称:
¥ 4.0

大型人工智能模型 (LAIM) 展示了一些令人印象深刻的性能,其中大型语言模型是最近最突出的例子。然而,经验表明它们会带来严重的安全问题。本文系统化了我们关于构建任意准确和安全的机器学习模型的根本不可能性的知识。更准确地说,我们确定了当今许多机器学习设置的关键挑战性特征。也就是说,高精度似乎需要记忆大量的训练数据集,这些数据集通常是用户生成的,并且高度异构,包含敏感信息和虚假用户。然后,我们调查了统计下限,我们认为,这构成了设计具有强大安全保障的高精度 LAIM 的可能性的令人信服的案例。

论大型人工智能模型不可能的安全性

论大型人工智能模型不可能的安全性PDF文件第1页

论大型人工智能模型不可能的安全性PDF文件第2页

论大型人工智能模型不可能的安全性PDF文件第3页

论大型人工智能模型不可能的安全性PDF文件第4页

论大型人工智能模型不可能的安全性PDF文件第5页

相关文件推荐

人工智能模型市场
2020 年
¥1.0
人工智能基础模型
2024 年
¥3.0