人工智能生成的密码存在安全风险

人工智能生成的密码“高度可预测”,并不是真正随机的,这使得网络犯罪分子更容易破解。

来源:Malwarebytes Labs 博客

使用人工智能 (AI) 生成密码是一个坏主意。它很可能将该密码提供给犯罪分子,然后犯罪分子可以在字典攻击中使用该密码,即攻击者使用自动化工具运行准备好的可能密码(单词、短语、模式)列表,直到其中一个有效,而不是尝试每种可能的组合。

AI 网络安全公司 Irregular 对 ChatGPT、Claude 和 Gemini 进行了测试,发现它们生成的密码“高度可预测”,而不是真正随机的。当他们测试 Claude 时,50 个提示只产生了 23 个唯一的密码。一根字符串出现了 10 次,而许多其他字符串都具有相同的结构。

这可能会成为一个问题。

传统上,攻击者会构建或下载由常见密码、现实世界泄漏和模式变体(单词加数字和符号)组成的单词列表,以用于字典攻击。添加人工智能聊天机器人通常提供的大约一千个密码几乎不需要任何努力。

人工智能聊天机器人经过训练,可以根据所学内容提供答案。他们擅长根据已有的东西来预测接下来会发生什么,而不是发明全新的东西。

正如研究人员所说:

“LLM 的工作原理是预测最有可能的下一个令牌,这与安全密码生成所需的完全相反:统一、不可预测的随机性。”

过去,我们首先解释了为什么计算机不太擅长随机性。密码管理器通过使用混合现实世界熵的专用加密随机数生成器来解决这个问题,而不是在法学硕士中看到的基于模式的文本生成。

换句话说,一个好的密码管理器不会像人工智能那样“发明”你的密码。它向操作系统请求加密随机位并将其直接转换为字符,因此攻击者没有可以学习的隐藏模式。

我们不仅报告隐私,还为您提供使用隐私的选项。