本文介绍了一种用于预测人类玩家行为和体验的自动游戏测试新方法。我们之前已经证明,深度强化学习 (DRL) 游戏代理可以预测游戏难度和玩家参与度,并将其操作化为平均通过率和流失率。我们通过使用蒙特卡洛树搜索 (MCTS) 增强 DRL 来改进这种方法。我们还基于以下观察激发了一种增强的预测特征选择策略:AI 代理的最佳表现可以产生比代理平均表现更强的与人类数据的相关性。这两种添加方式都可以持续提高预测准确性,并且 DRL 增强型 MCTS 在最难的级别上的表现优于 DRL 和原始 MCTS。我们得出结论,通过自动游戏测试进行玩家建模可以从结合 DRL 和 MCTS 中受益。此外,如果 AI 游戏玩法平均而言无法产生良好的预测,那么研究重复的最佳 AI 代理运行的子集也是值得的。