详细内容或原文请订阅后点击阅览
流行的人工智能聊天机器人存在令人担忧的加密缺陷 - 这意味着黑客可能很容易拦截消息
网络安全研究人员发现了支撑生成人工智能的大型语言模型架构中的一个严重漏洞,但这个缺陷有多危险?
来源:LiveScience微软的网络安全研究人员发现了现代人工智能 (AI) 系统中的一个严重缺陷,这意味着与聊天机器人的对话可能已被黑客的攻击拦截。这将绕过旨在保持聊天私密性的加密。
人工智能这种攻击技术称为 Whisper Leak,是一种“中间人攻击”,黑客可以在消息在服务器之间传输时拦截消息。它之所以有效,是因为黑客能够读取消息的元数据,从而推断出其内容。
研究人员在 11 月 5 日上传到预印本 arXiv 数据库的一项研究中概述了此次攻击。他们于 2025 年 6 月通知了大型语言模型 (LLM) 提供商。包括 Microsoft 和 ChatGPT 开发商 OpenAI 在内的一些提供商通过评估风险并部署修复程序进行了回应。然而,其他法学硕士提供商以各种理由拒绝实施修复。研究人员表示,有些甚至没有对新发现做出回应,他们没有强调哪些特定平台忽略了应用修复程序。
arXiv“我并不感到惊讶,”网络安全分析师 Dave Lear 告诉 Live Science,“法学硕士是一个潜在的金矿,考虑到人们输入其中的信息量,更不用说其中可能包含的医疗数据量了,既然医院正在使用它们来对测试数据进行分类,那么迟早有人会找到一种方法来泄露这些信息。”
发现人工智能聊天机器人中的漏洞
Chat GPT 等生成式 AI 系统是功能强大的 AI 工具,可以根据一系列提示生成响应,就像智能手机上的虚拟助手所使用的那样。一部分法学硕士接受了大量数据的训练,以生成基于文本的响应。
聊天 GPT