Loading...
机构名称:
¥ 1.0

本文全面探讨了针对大型语言模型(LLM)的安全威胁引起的道德挑战。这些复杂的数字存储库越来越多地整合到我们的日常生活中,使其成为攻击的主要目标,这些攻击可以损害其培训数据和数据源的机密性。本文深入研究了对社会和个人隐私的这种安全威胁的细微伦理影响。我们仔细检查了五个主要威胁,包括注射注射,越狱,可识别的信息(PII)暴露,性明确的内容和基于仇恨的内容 - 超出了仅仅标识,以评估其关键的道德后果以及他们为强大的防御策略创造的紧迫性。对LLM的不断依赖强调了确保这些系统在道德准则范围内运作的关键需求,尤其是因为它们的滥用可能导致重大的社会和个人伤害。我们提出了概念化和开发针对LLMS量身定制的评估工具,该工具将达到双重目的:指导开发人员和设计师在测试阶段的LLM Chatbot响应的伦理学维度进行审查。通过将LLM的反应与人类在道德背景下的人类期望的反应进行比较,我们旨在辨别AI行为与更广泛的社会所拥有的道德价值一致的程度。最终,本文不仅强调了LLMS带来的道德问题;它还突出了培养对这些系统的信任的道路。

互动的伦理:减轻LLMS中的安全威胁

互动的伦理:减轻LLMS中的安全威胁PDF文件第1页

互动的伦理:减轻LLMS中的安全威胁PDF文件第2页

互动的伦理:减轻LLMS中的安全威胁PDF文件第3页

互动的伦理:减轻LLMS中的安全威胁PDF文件第4页

互动的伦理:减轻LLMS中的安全威胁PDF文件第5页

相关文件推荐