• Stockfish 是一款开源国际象棋引擎,于 2008 年发布 • 利用早期、中期和后期的原材料(棋子)优势来评估位置 • 骑士、主教和国王的最佳棋子位置,棋子形成很重要。 • 经过多年的微调,所有权重都不同 • 通过 30 多个深树找到最佳移动并对每个棋盘状态进行评估。 • 自 2013 年以来,一直在最佳国际象棋引擎中排名第 1/2,最近才输给 DeepMind 公司使用自学训练神经网络的 Alphazero • 我们使用此引擎评估自己创建的随机棋盘并训练 CNN
残局研究长期以来一直是测试人类创造力和智力的工具。我们发现它们也可以作为测试机器能力的工具。两个领先的国际象棋引擎 Stockfish 和 Leela Chess Zero (LCZero) 在游戏过程中采用了截然不同的方法。我们使用 20 世纪 70 年代末著名的残局研究 Plaskett's Puzzle 来比较这两个引擎。我们的实验表明 Stockfish 在谜题上的表现优于 LCZero。我们研究了引擎之间的算法差异,并以我们的观察结果为基础仔细解释测试结果。受人类解决国际象棋问题的方式启发,我们询问机器是否可以拥有某种形式的想象力。在理论方面,我们描述了如何应用贝尔曼方程来优化获胜概率。最后,我们讨论了我们的工作对人工智能 (AI) 和通用人工智能 (AGI) 的影响,并提出了未来研究的可能途径。
任何渴望参与这一历史性活动的人都可以加入世界队,通过自己的设备实时在线玩游戏。由 it.com Domains 设计并基于 Stockfish AI 引擎的 AI 顾问系统将为参与者提供每个动作的三个选项,模拟不同的游戏级别——大师级、高级和业余。参与者将不知道哪个动作对应哪个级别。投票时间为 30 秒,最受欢迎的选项将成为世界队的官方动作。实时投票分布将显示在网站上。汉斯·尼曼则总共有 5 分钟的时间来下棋。
本研究应对在国际象棋中区分人类和计算机产生的游戏的挑战,对于确保在线和锦标赛的完整性和公平性至关重要。随着未经授权的计算机援助变得越来越复杂,我们利用顺序的神经网络来分析大量的国际象棋游戏数据集,采用了传统引擎(例如Stockfish和Leela),以及Maia的创新神经网络,例如Maia及其单个子模型。此分析将centipawn偏差指标纳入了衡量典型的计算机策略,迈亚对人类和特质游戏风格的见解以及对移动的时间分布的评估。我们的方法通过考虑移动序列的战略含义以及在不同的游戏条件下游戏的一致性而扩展,从而增强了我们对人与AI游戏之间细微差异的理解。值得注意的是,我们的算法在识别国际象棋发动机的使用方面达到了约98%的准确性,从而在维持游戏的完整性方面做出了重大进步。为了进一步验证我们的发现,我们使用单独的数据集进行了交叉验证,从而确认了模型的鲁棒性。我们还探索了该算法在其他棋盘游戏中检测AI援助的适用性,这表明其更广泛使用的潜力。这项研究强调了机器学习在打击数字作弊方面的关键作用,强调需要连续适应检测方法以保持发展的发展。此外,我们的发现指出了为游戏中使用AI的道德准则的重要性,从而确保了所有参与者的公平和水平的竞争环境。最后,通过发布我们的方法论和AI检测的标准,我们旨在促进游戏社区内和开发人员之间的公开对话,从而促进透明度和合作,以打击作弊。
在医疗保健领域实施人工智能 (AI) 的想法越来越受欢迎,尤其是在决策和诊断领域。这是因为 AI 在速度和准确性方面都胜过人类。例如,Scott Mayer McKinney 及其同事展示了一个 AI 系统,它在预测乳腺癌方面的表现优于六名医生,并且该系统可以将第二位读者的工作量减少 88% (1)。如果这种表现表明 AI 在医疗保健领域的潜力,那么广泛的应用可能会彻底改变诊断和决策。对于 AI,没有统一的定义,每个人都可以可靠地同意,但通常有两三个高级区别来理解这些类型的技术。第一种是专为特定目的而构建的反应系统,有时称为“狭义”或“弱”AI。第二种是“通用”系统,它们能够在数据集上进行训练并自行学习(有时这些系统被归入“狭义”类别)。最后一种系统称为通用人工智能或“强”AI,目前完全是理论上的。这些系统可以复制自主的人类智能(2)。以下是公众可能熟悉的这些不同类型系统的一些示例:Stockfish(国际象棋游戏系统)、IBM 的 Watson(为 Jeopardy 构建,但现已应用于医学)和 HAL(2001:太空漫游中的流氓计算机助手)。在本文中,我重点介绍“通用”AI。然而,尽管“通用”AI 具有潜力,但它尚未广泛应用于医疗决策,至少在实验环境或创新医院环境之外。相反,该领域的大多数人工智能或多或少都属于“狭义”类别,因为它们被用作诊断工具,而不是决策者。我打算研究三种可用于医疗保健的高级“通用”人工智能类别:不透明系统(有时通俗地称为“黑匣子”),可解释的人工智能(有时通俗地称为“白匣子”)和半透明系统(“灰匣子”)。不透明系统是用户无法访问系统用于实现输出的底层过程的系统。这些通常被认为是高度准确的,但以牺牲问责制为代价(3)。可解释的人工智能是分配给那些允许用户清楚地解释行为、预测和影响变量的系统的一个类别。这些都是透明且可信赖的,但通常功能不足以做预测或模式匹配以外的更多事情。最后,半透明的“灰盒”是一个较少讨论的类别,它捕获了介于不透明和完全透明之间的系统。尽管存在这种中间类别,但辩论往往将半透明系统排除在讨论之外,而是在透明或不透明系统之间提出二分法选择。灰色系统的引入将讨论从二分法转变为一系列潜在工具。