详细内容或原文请订阅后点击阅览
一种新的防护罩可以保护人工智能代理免受网络攻击
青少年的软件可以帮助保护处理敏感数据的人工智能免受偷偷摸摸的“即时注入攻击”。
来源:科学新闻探索代理:在完成某件事中发挥一定作用的人或事物(可以是化学物质,甚至是能量形式)。
AI 代理:一种使用大型语言模型(如大脑)的技术,然后将其链接到电子邮件或互联网等工具,以便它可以自行执行操作或完成任务。
AI模型:人工智能模型的简称,是一种特别智能的计算机算法。这些模型的简单类型从一组预先选择的模型中进行选择来回答用户的请求(可能是响应聊天)。更复杂的模型可能会在大量数据上进行训练,以从本质上找出潜在新问题的答案。
代码:(在计算中)使用特殊语言编写或修改使计算机执行某些操作的程序。 (n.) 代码还指指导计算机操作的编程的每个特定部分。
hack:(在计算中)未经批准(通常是非法)访问计算机,通常是为了窃取或更改数据或文件。这样做的人被称为黑客。
模型:对现实世界事件(通常使用计算机)的模拟,旨在预测一个或多个可能的结果。 或者是一个旨在展示某些东西在他人身上如何运作或如何看待的人。
监视器:测试、采样或观察某些内容,尤其是定期或持续进行的测试、采样或观察。
提示注入攻击:(在人工智能中)针对大型语言模型 (LLM) 的一种网络攻击。计算机黑客将有害输入伪装成合法的“提示”。通过这种方式,他们说服生成人工智能系统(GenAI)共享敏感数据、传播错误信息或窃取数据。最简单的类型只是告诉聊天机器人忽略其开发人员为允许的行为制定的规则。这些即时注入攻击非常令人担忧,因为截至 2026 年,人工智能安全研究人员尚未找到一种万无一失的方法来解除它们。
