超人 AI 机器人出人意料地容易受到攻击

通过学习对抗性人工智能的漏洞,人们可以击败超人的围棋系统

来源:科学美国人

AI 能成为超人吗?顶级游戏机器人的缺陷引发质疑

通过学习对抗性 AI 的漏洞,人类可以击败超人围棋系统

作者:Matthew Hutson & Nature 杂志

Matthew Hutson Nature 杂志
棋盘游戏围棋是对机器学习能力的一次备受瞩目的测试。
棋盘游戏围棋是对机器学习能力的一次备受瞩目的测试。

棋盘游戏围棋是对机器学习能力的一次备受瞩目的测试。

关于超人人工智能 (AI) 的讨论正在升温。但研究揭示了最成功的 AI 系统之一的弱点——一个玩棋盘游戏围棋并能击败世界上最优秀的人类玩家的机器人——表明这种优势可能是脆弱的。这项研究提出了一个问题:更通用的人工智能系统是否会受到漏洞的影响,从而损害其安全性和可靠性,甚至损害其所谓的“超人”地位。

超人人工智能 (AI)

“这篇论文对如何实现构建人们可以信赖的强大现实世界人工智能代理这一雄心勃勃的目标留下了一个重要的问号,”伊利诺伊大学厄巴纳-香槟分校的计算机科学家 Huan Zhang 说。剑桥麻省理工学院的计算机科学家 Stephen Casper 补充道:“它提供了迄今为止最有力的证据,表明让高级模型按照预期稳健地运行是困难的。”

该分析于 6 月作为预印本在线发布,尚未经过同行评审,它利用了所谓的对抗性攻击——向人工智能系统提供旨在促使系统犯错的输入,无论是出于研究目的还是出于邪恶目的。例如,某些提示可以“越狱”聊天机器人,使它们泄露它们被训练来抑制的有害信息。

于 6 月在线发布为预印本 旨在促使系统犯错

关于支持科学新闻

订阅 训练对抗性 AI 机器人击败 KataGo

利用 KataGo

神经网络