大型语言模型(LLMS)已证明了非凡的功能,并有助于多个领域,例如生成和总结文本,语言翻译和提问。如今,LLM已成为计算机化语言处理任务中非常流行的工具,具有分析复杂的语言模式并根据上下文提供相关和适当的响应的能力。在提供显着优势的同时,这些模型也容易受到安全和隐私攻击的影响,例如越狱攻击,数据中毒攻击和个人身份信息(PII)泄漏攻击。本调查对LLMS对培训数据和用户的安全性和隐私挑战进行了详尽的审查,以及在运输,教育和医疗保健等各个领域的基于应用程序的风险。我们评估了LLM漏洞的程度,调查LLM的新兴安全性和隐私攻击,并审查潜在的防御机制。此外,调查概述了该领域的现有研究差距,并突出了未来的研究方向。
主要关键词