要构建更好的 AI 助手,首先要对人类的非理性行为进行建模
一种新技术可用于预测在朝着未知目标努力时表现不佳的人类或 AI 代理的行为。
来源:MIT新闻 - 人工智能要构建能够与人类有效协作的 AI 系统,首先要有一个良好的人类行为模型。但人类在做决策时往往表现得不太理想。
这种非理性尤其难以建模,通常归结为计算约束。人类不可能花费数十年时间思考单个问题的理想解决方案。
麻省理工学院和华盛顿大学的研究人员开发了一种模拟代理(无论是人类还是机器)行为的方法,该方法考虑了可能妨碍代理解决问题能力的未知计算约束。
他们的模型可以通过查看代理之前行为的几个痕迹来自动推断代理的计算约束。结果,代理所谓的“推理预算”,可用于预测代理的未来行为。
在一篇新论文中,研究人员展示了如何使用他们的方法从先前的路线推断某人的导航目标,并预测棋手中的后续动作。他们的技术与另一种流行的建模此类决策的方法相当或优于后者。
最终,这项工作可以帮助科学家教会人工智能系统人类的行为方式,从而使这些系统能够更好地响应人类合作者。电气工程和计算机科学 (EECS) 研究生、该技术论文的主要作者 Athul Paul Jacob 表示,能够理解人类的行为,然后从该行为推断出他们的目标,可以使人工智能助手更加有用。
关于该技术的论文“如果我们知道人类即将犯错,并且了解他们之前的行为,那么人工智能代理可以介入并提供更好的方法。或者代理可以适应其人类合作者的弱点。能够模拟人类行为是朝着构建能够真正帮助人类的人工智能代理迈出的重要一步,”他说。
建模行为
建模行为