人工智能会让网络安全变得过时还是硅谷又在胡言乱语?

'如果代码开发者提供代码安全工具,是不是就像狐狸看守鸡舍一样?'

来源:ZDNet | 机器人新闻

关注 ZDNET:将我们添加为 Google 上的首选来源。

ZDNET 的关键要点

  • Anthropic、OpenAI 和 Google 工具可以自动进行代码调试。
  • 但网络安全问题太复杂,这些工具无法解决。
  • 人工智能最大的贡献可能是减少可避免的软件缺陷。
  • 您能相信正在构建人工智能的公司能够让该技术安全地供全世界使用吗?

    这是作为人工智能用户今年面临的最紧迫的问题之一,而且它不是一个学术问题。随着该技术在现实世界中的部署激增,新型风险不断出现,可能带来灾难性影响,需要新的解决方案。

    另外:人工智能在 2026 年造成前所未有的损害的 10 种方式

    AI 模型的主要创建者 OpenAI、Anthropic 和 Google 前来救援。这三者都提供了可以减轻法学硕士和建立在其之上的代理程序中的故障和安全漏洞的工具。

    (披露:ZDNET 的母公司 Ziff Davis 于 2025 年 4 月对 OpenAI 提起诉讼,指控其在训练和运营其人工智能系统时侵犯了 Ziff Davis 的版权。)

    华尔街观察人士认为,人工智能公司的工具很有可能取代 Palo Alto Networks、Zscaler 和 Check Point Software 等公司的传统网络安全产品。一个称为可观察性的相关领域也受到威胁,其中包括 Dynatrace 等销售检测系统故障工具的公司。

    另外:为什么加密备份在人工智能驱动的勒索软件时代可能会失败

    在程序投入使用之前,世界上大多数或全部软件问题将由软件创建者从源头解决的想法确实很诱人。如果您从一开始就采取正确的措施,就不会再出现拒绝服务、勒索软件、供应链攻击。

    只是,事情没那么简单。

    人工智能会让网络安全变得过时吗?

    另外:人工智能威胁将变得更严重:6 种方法来对抗数字对手的顽强

    与 Anthropic 的 Claude Code Security 的终端会话。