详细内容或原文请订阅后点击阅览
AlphaGo三天内从初学者到大师
谷歌伦敦子公司 DeepMind 宣布,它已经创造了一款机器,它可以比其前身 AlphaGo 更好地玩中国古代围棋游戏,去年 AlphaGo 战胜了来自首尔的世界级大师李世石 (Lee Sedol) 。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)谷歌伦敦子公司 DeepMind 宣布,它已经创造了一款机器,它可以比其前身 AlphaGo 更好地玩中国古代围棋游戏,去年 AlphaGo 战胜了来自首尔的世界级大师李世石 (Lee Sedol) 。
之前的软件是使用一个巨大的大师游戏记录数据库花费了几个月的时间准备的,并收到了其创建者的一些建议。然后他通过与自己的多次比赛经历了一个进步的阶段。新的人工智能,称为AlphaGo Zero,没有收到任何指令或数据库——它完全靠自己训练,从初级到大师。
经过几天的训练,新机器在一场标准比赛时间为每名选手两小时的比赛中与旧机器对战。结果——AlphaGo Zero 在 100 局比赛中获胜!
要了解新系统,我们必须先看一下去年的版本。它由三部分组成:搜索算法、蒙特卡罗模拟器和两个深度神经网络。
搜索算法指示计算机国际象棋程序中的走法。该算法首先列出所有可能的移动,然后列出所有可能的反向移动,从而创建解析树。然后使用第二种算法来估计树的每个分支上的最终位置。最后,如果对手也选择了最佳走法,则选择导致最佳结果的走法。搜索算法对于围棋来说价值有限,因为评估最终位置非常困难。
搜索算法蒙特卡洛模拟生成大量可能的游戏,以了解给定的举动产生良好结果的频率。其他程序员已经在 2014 年为 Go 尝试过这种方法,并取得了显着的成果。
蒙特卡洛模拟 深度神经网络 AlphaGo