DeepMind的DQN Atari游戏同时学习吗?


9

DeepMind指出,他们的深度Q网络(DQN)在学习玩49场Atari游戏时能够不断适应其行为。

在学习了具有相同神经网络的所有游戏之后,座席是否能够同时以“超人”水平玩所有游戏(无论何时随机将其中一个游戏呈现给游戏者),或者一次只能只玩一个游戏,因为切换需要重新学习吗?


“在学习了具有相同神经网络的所有游戏之后”。这是否意味着相同的NN体系结构或相同的体系结构和一组权重?
ANKUR

@Ankur实际上我不确定-这是我(有限的)理解,他们使用相同的体系结构,并且没有在游戏之间重新设置权重。
狄翁(Dion)

Answers:


2

切换需要重新学习。

另外,请注意

我们在所有七款游戏中使用相同的网络体系结构,学习算法和超参数设置,这表明我们的方法足够强大,可以在不包含特定于游戏的信息的情况下用于各种游戏。在评估代理商对真实和未修改游戏的评估时,我们仅在培训期间对游戏的奖励结构进行了一次更改。

在我们尝试的7款游戏中,有6款的网络性能超过了所有以前的RL算法,并且在3款游戏中都超过了专业的人类玩家。


1

切换需要重新学习,网络没有一组权重可以使所有游戏正常运行。这是由于灾难性的遗忘问题造成的。

但是,最近的工作已完成以克服此问题:

“克服神经网络中的灾难性遗忘”,2016年

论文:https : //arxiv.org/pdf/1612.00796v1.pdf

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.