这是来自AI的封闭测试版,该问题由47号用户发布。所有信息都归功于他们。
根据维基百科,
Boltzmann机器可以视为Hopfield网络的随机,生成对应物。
两者都是循环神经网络,可以训练它们学习位模式。然后,当呈现部分模式时,网络将检索完整的完整模式。
Hopfield网络已被证明具有0.138的容量(例如,每1000个节点可以从存储中调用大约138位向量,Hertz 1991)。
由于玻尔兹曼机是随机的,我的理解是,当一个存储的模式与另一个存储的模式之间的能量差相似时,它不一定总是显示相同的模式。但是由于这种随机性,也许它可以存储更密集的模式,但不能保证您始终会获得能量差最接近的模式。这是真的吗?还是Hopfield网络能够存储更多模式?