9 DeepMind指出,他们的深度Q网络(DQN)在学习玩49场Atari游戏时能够不断适应其行为。 在学习了具有相同神经网络的所有游戏之后,座席是否能够同时以“超人”水平玩所有游戏(无论何时随机将其中一个游戏呈现给游戏者),或者一次只能只玩一个游戏,因为切换需要重新学习吗? neural-networks deep-learning deepmind — 迪翁 source “在学习了具有相同神经网络的所有游戏之后”。这是否意味着相同的NN体系结构或相同的体系结构和一组权重? — ANKUR @Ankur实际上我不确定-这是我(有限的)理解,他们使用相同的体系结构,并且没有在游戏之间重新设置权重。 — 狄翁(Dion)
2 切换需要重新学习。 另外,请注意: 我们在所有七款游戏中使用相同的网络体系结构,学习算法和超参数设置,这表明我们的方法足够强大,可以在不包含特定于游戏的信息的情况下用于各种游戏。在评估代理商对真实和未修改游戏的评估时,我们仅在培训期间对游戏的奖励结构进行了一次更改。 和 在我们尝试的7款游戏中,有6款的网络性能超过了所有以前的RL算法,并且在3款游戏中都超过了专业的人类玩家。 — 弗兰克·德农库特 source
1 切换需要重新学习,网络没有一组权重可以使所有游戏正常运行。这是由于灾难性的遗忘问题造成的。 但是,最近的工作已完成以克服此问题: “克服神经网络中的灾难性遗忘”,2016年 论文:https : //arxiv.org/pdf/1612.00796v1.pdf — 尼克斯 source