Loading...
机构名称:
¥ 1.0

新加坡,2023 年 12 月 28 日 新加坡南洋理工大学的研究人员利用人工智能聊天机器人互相“越狱” 新加坡南洋理工大学 (NTU Singapore) 的计算机科学家成功入侵了多个人工智能 (AI) 聊天机器人,包括 ChatGPT、Google Bard 和 Microsoft Bing Chat,以生成违反其开发人员指南的内容——这种结果被称为“越狱”。“越狱”是计算机安全领域的一个术语,计算机黑客发现并利用系统软件中的漏洞,使其执行开发人员故意禁止做的事情。此外,通过在已被证明可以成功破解这些聊天机器人的提示数据库上训练大型语言模型 (LLM),研究人员创建了一个 LLM 聊天机器人,该机器人能够自动生成进一步的提示来越狱其他聊天机器人。LLM 构成了 AI 聊天机器人的大脑,使它们能够处理人类输入并生成几乎与人类无法区分的文本。这包括完成诸如规划旅行行程、讲睡前故事和开发计算机代码等任务。NTU 研究人员的工作现在将“越狱”添加到列表中。他们的发现可能对帮助公司和企业了解其 LLM 聊天机器人的弱点和局限性至关重要,以便他们可以采取措施加强它们以抵御黑客。在对 LLM 进行一系列概念验证测试以证明他们的技术确实对它们构成了明显而现实的威胁后,研究人员在成功发起越狱攻击后立即向相关服务提供商报告了这些问题。领导这项研究的南洋理工大学计算机科学与工程学院的刘洋教授表示:“大型语言模型 (LLM) 之所以迅速普及,是因为

ntu-singapore-researchers-use-ai-chatbots-against- ...

ntu-singapore-researchers-use-ai-chatbots-against- ...PDF文件第1页

ntu-singapore-researchers-use-ai-chatbots-against- ...PDF文件第2页

ntu-singapore-researchers-use-ai-chatbots-against- ...PDF文件第3页

ntu-singapore-researchers-use-ai-chatbots-against- ...PDF文件第4页

相关文件推荐

2024 年
¥1.0
2022 年
¥7.0
2024 年

...

¥2.0
2014 年

...

¥10.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2019 年
¥1.0