详细内容或原文请订阅后点击阅览
2025年暴露了我们在人工智能发展过程中忽视的风险
我们探讨人工智能 (AI) 的快速崛起如何使用户面临风险。
来源:Malwarebytes Labs 博客本博客是我们重点介绍消费者安全领域中新的或快速发展的威胁的系列文章的一部分。本文着眼于人工智能 (AI) 的快速崛起如何将用户置于危险之中。
2025 年,我们看到人工智能提供商之间推出新功能的竞争不断加速。我们还看到制造商将人工智能应用到产品上只是因为它听起来令人兴奋。在很多情况下,它确实不应该。
代理浏览器
能够自主执行任务的 gentic 或 AI 浏览器引入了一组新的漏洞,尤其是引发注入攻击的漏洞。强大的人工智能能力伴随着巨大的责任和风险。如果您正在考虑使用人工智能浏览器,那么值得放慢速度并首先考虑安全和隐私影响。即使像 OpenAI(ChatGPT 的制造商)这样经验丰富的人工智能提供商也无法保证其代理浏览器 Atlas 的安全。通过将特制链接粘贴到多功能框中,攻击者能够欺骗 Atlas 将 URL 输入视为可信命令。
模仿
人工智能聊天机器人的流行为诈骗者传播恶意应用程序创造了绝佳的机会。即使人工智能引擎本身工作完美,攻击者也有另一种方法:伪造接口。据 BleepingComputer 称,诈骗者已经在创建欺骗性的 AI 侧边栏,这些侧边栏看起来与 OpenAI 的 Atlas 和 Perplexity 的 Comet 等浏览器中的真实侧边栏相同。这些假侧边栏模仿真实的界面,使它们几乎无法被发现。
配置错误
然后是在产品中使用人工智能的特殊类别,因为人工智能听起来更酷,或者你可以向买家索要更多钱。
玩具
误解
有时我们过于依赖人工智能系统,却忘记了它们会产生幻觉。例如,学校的人工智能系统将一个男孩的空多力多滋包误认为是一把枪,并引发了警方的全面反应。多辆警车赶到,警察拔出了武器,这一切都是因为误报。
