在此站点上最受欢迎的问题之一是关于纯粹自我训练的国际象棋AI的前景。
如今,ChessBase分散了对FIDE候选锦标赛的关注,报告说一种新的AI首次击败了颇具挑战性的围棋游戏的领先者,该棋已经抗拒了象棋风格的AI多年。该报告的初步阅读表明,新型围棋AI与国际象棋AI不同,但更像是通用游戏(GGP)AI。但是,ChessBase的文章并未使用GGP术语,而是似乎说go AI可以在简单的视频游戏中获胜。
这样的获胜围棋AI稍加调整就无法在国际象棋上获胜吗?如果是这样,那么这样的AI是否显示出有望实现纯自我训练的能力,而对于早期问题的几个出色答案早已在前面进行了讨论,而当时还不可能呢?为什么或者为什么不?
我怀疑还没有关于我的问题的真正完整,全面的答案,因此,即使是基于相关专业知识的部分答案也将不胜感激。
有关其他参考,请参阅此相关问题和解答。
更新
当上述问题在五天前首次发布并给出以下一些好的答案时,有关go AI获胜的第一则新闻刚刚出现。从那时起,出现了更多的信息和评论。
自那以来,特别有趣的是一个颇具可读性的五边圆桌讨论,其中乔纳森·舍弗(Jonathan Schaeffer)表示:
从人机游戏中学习有助于加速程序的学习。AlphaGo可以学会自己成为强大的玩家,而无需使用人工游戏。学习过程将花费更长的时间。
根据圆桌会议的主持人,谢弗是“阿尔伯塔大学计算机科学教授和解决跳棋者”。因此,大概他可能有资格发表评论。
有关更多信息,请参见以下公开讨论的记录,其中许多参与者似乎比往常更了解情况。讨论在比赛期间进行。
一年半后的进一步更新:评论者@MarkS。写道:
这只是一条评论,因为它是关于围棋而不是国际象棋的,但是AlphaGo Zero仅仅通过被告知谁获胜(而不是最终比分)而获得了“纯粹的自我训练”,并且比击败Lee Sedol的AI更强大,效率更高。 。有关更多信息,请参见deepmind.com/blog/alphago-zero-learning-scratch