现任和前任军官警告称,对手可能会利用人工智能聊天机器人的自然缺陷来注入窃取文件、扭曲公众舆论或以其他方式背叛可信用户的指令。存在此类“即时注入攻击”的漏洞是因为大型语言模型(消化大量用户文本以生成响应的聊天机器人的支柱)无法区分恶意和可信用户指令。以色列国防军网络战部队前成员利亚夫·卡斯皮 (Liav Caspi) 告诉《防务新闻》:“人工智能不够聪明,无法理解它内部有注射,因此它会执行一些不应该做的事情。”合法安全公司的联合创始人卡斯皮表示,事实上,“敌人已经能够从内部操纵某人做他们想做的事”,例如删除记录或做出带有偏见的决定,该公司最近在微软的 Copilot 中发现了一个这样的安全漏洞。聊天机器人。“这就像你的队伍里有一个间谍,”他说。前军方官员表示,随着对中国、俄罗斯和其他国家支持的聊天机器人和黑客的更多依赖,已经指示谷歌的 Gemini、OpenAI 的 ChatGPT 和 Copilot 创建恶意软件和虚假角色,命令机器人自己复制文件或传播谎言的迅速注入迫在眉睫。微软上个月发布的年度数字防御报告首次表示,“人工智能系统本身已成为高价值目标,对手加大了对此类方法的使用”及时注射。”更重要的是,OpenAI 和安全研究人员表示,即时注入问题没有简单的解决方案。攻击仅涉及在聊天机器人或聊天机器人读取的内容(例如博客文章或 PDF)中隐藏恶意指令(有时以白色或小文本形式)。例如,一位安全研究人员演示了针对 OpenAI 的新型基于人工智能的浏览器 ChatGPT Atlas 的即时注入攻击,其中聊天机器人响应“不信任人工智能”,wh